Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa | ||
doc:tec:sis:proxmox:cluster:inicio [2025/05/12 18:48] – [Almacenamiento distribuido/sincronizado] euloxio | doc:tec:sis:proxmox:cluster:inicio [2025/05/12 19:06] (actual) – [Distribuido] euloxio | ||
---|---|---|---|
Línea 61: | Línea 61: | ||
{{ : | {{ : | ||
- | Con la integración de Ceph, una plataforma de almacenamiento definido por software de código abierto, Proxmox VE tiene la capacidad de ejecutar y gestionar el almacenamiento directamente en los nodos del hipervisor. Ceph es un almacén de objetos distribuido y un sistema de archivos diseñado para ofrecer un rendimiento, | + | **Ceph** |
+ | * Con la integración de Ceph, una plataforma de almacenamiento definido por software de código abierto, Proxmox VE tiene la capacidad de ejecutar y gestionar el almacenamiento directamente en los nodos del hipervisor. Ceph es un almacén de objetos distribuido y un sistema de archivos diseñado para ofrecer un rendimiento, | ||
- | Algunas ventajas de Ceph en Proxmox VE son: | + | * Algunas ventajas de Ceph en Proxmox VE son: |
- | * Fácil configuración y gestión mediante CLI y GUI. | + | * Fácil configuración y gestión mediante CLI y GUI. |
- | * Thin provisioning. | + | * Thin provisioning. |
- | * Compatibilidad con snapshots. | + | * Compatibilidad con snapshots. |
- | * Self-healing. | + | * Self-healing. |
- | * Escalabilidad hasta los exabytes. | + | * Escalabilidad hasta los exabytes. |
- | * Configuración de grupos con diferentes carácteristicas de rendimiento y redundancia. | + | * Configuración de grupos con diferentes carácteristicas de rendimiento y redundancia. |
- | * Replicación de datos. | + | * Replicación de datos. |
- | * Funciona con hardware básicos. | + | * Funciona con hardware básicos. |
- | * No necesita controladores RAID. | + | * No necesita controladores RAID. |
- | * Código abierto. | + | * Código abierto. |
Para crear un clúster hiperconvergente con Proxmox y Ceph, se debe utilizar al menos tres servidores, preferiblemente idénticos, para la configuración. Además, es recomendable tener un ancho de banda de, al menos, 10Gb. | Para crear un clúster hiperconvergente con Proxmox y Ceph, se debe utilizar al menos tres servidores, preferiblemente idénticos, para la configuración. Además, es recomendable tener un ancho de banda de, al menos, 10Gb. | ||
+ | |||
+ | {{youtube> | ||
+ | |||
+ | |||
+ | |||
\\ | \\ | ||
==== Sincronizado ==== | ==== Sincronizado ==== | ||
+ | Si el cluster no cumple con las especificaciones recomendadas para crear un sistema de almacenamiento distribuido vía Ceph, se puede optar por una solución alternativa que pasa por crear una partición ZFS idéntica en cada servidor, y configurar tareas de replicación periódicas entre los mismos. A esta práctica se le conoce como almacenamiento sincronizado. | ||
+ | |||
+ | ZFS es un sistema de archivos local y gestor de volúmenes lógicos creado por Sun Microsystems Inc. para dirigir y controlar la ubicación, el almacenamiento y la recuperación de datos en sistemas informáticos de clase empresarial. El sistema de archivos y gestor de volúmenes ZFS se caracteriza por la integridad de los datos, una gran escalabilidad y funciones de almacenamiento integradas como: replicación, | ||
+ | |||
+ | Para crear un volúmen ZFS en Proxmox, basta con dirigirse a Disks > ZFS dentro del nodo y hacer clic sobre Create: ZFS. | ||
+ | |||
+ | La replicación de datos entre los dos servidores fı́sicos se realizará a través de una red interna (10.10.10.0/ | ||
+ | |||
+ | En Proxmox, basta con dirigirse a '' | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | \\ | ||