LinuxParty
RAID 6 es una versión actualizada de RAID 5 , donde tiene dos paridades distribuidas que proporcionan tolerancia a fallas incluso después de que fallan dos unidades. El sistema de misión crítica sigue operativo en caso de fallas simultáneas en dos discos. Es similar a RAID 5 , pero proporciona más robustez, ya que utiliza un disco más por paridad.
En nuestro artículo anterior, hemos visto paridad distribuida en RAID 5 , pero en este artículo veremos RAID 6 con doble paridad distribuida. No espere un rendimiento adicional que cualquier otro RAID, de ser así, también tenemos que instalar un controlador RAID dedicado. Aquí en RAID 6, incluso si perdemos nuestros 2 discos, podemos recuperar los datos al reemplazar una unidad de repuesto y construirla desde la paridad.
Configurar RAID 6 en Linux
Para configurar un RAID 6 , se requieren un mínimo de 4 números de discos o más en un conjunto. RAID 6 tiene múltiples discos, incluso en algunos conjuntos, puede tener algunos discos, mientras lee, leerá desde todas las unidades, por lo que la lectura sería más rápida, mientras que la escritura sería pobre porque tiene que dividir en varios discos.
Ahora, muchos de nosotros llegamos a la conclusión de por qué necesitamos usar RAID 6 , cuando no funciona como cualquier otro RAID. Mmm ... quienes plantean esta pregunta deben saber que, si necesitan una alta tolerancia a fallas, elijan RAID 6. En todos los entornos superiores con alta disponibilidad para la base de datos, usan RAID 6 porque la base de datos es la más importante y debe estar segura a cualquier costo , también puede ser útil para entornos de transmisión de video.
Pros y contras de RAID 6
- El rendimiento es bueno.
- RAID 6 es costoso, ya que requiere dos unidades independientes que se utilizan para funciones de paridad.
- Perderá una capacidad de dos discos para usar la información de paridad (doble paridad).
- Sin pérdida de datos, incluso después de que fallan dos discos. Podemos reconstruir desde la paridad después de reemplazar el disco fallido.
- La lectura será mejor que RAID 5, porque lee desde múltiples discos, pero el rendimiento de escritura será muy pobre sin un controlador RAID dedicado.
Requisitos
Se requieren un mínimo de 4 números de discos para crear un RAID 6 . Si desea agregar más discos, puede hacerlo, pero debe tener un controlador de incursión dedicado. En RAID de software, no obtendremos un mejor rendimiento en RAID 6. Por lo tanto, necesitamos un controlador RAID físico.
Aquellos que son nuevos en la configuración de RAID, recomendamos leer los artículos de RAID a continuación.
Configuración de mi servidor
Sistema operativo: CentOS 7.5 Final Dirección IP: 192.168.0.228 Nombre de host: rd6.tecmintlocal.com Disco 1 [20GB]: /dev/sdb Disco 2 [20GB]: /dev/sdc Disco 3 [20GB]: /dev/sdd Disco 4 [20GB]: /dev/sde
Este artículo es una parte 5 de una serie RAID de 9 tutoriales, aquí veremos cómo podemos crear y configurar Software RAID 6 o Striping con paridad distribuida doble en sistemas o servidores Linux usando cuatro discos de 20GB llamados /dev/sdb, /dev/sdc, /dev/sdd y /dev/sde.
Paso 1: Instalar la herramienta mdadm y examinar unidades
1. Si está siguiendo nuestros dos últimos artículos de Raid ( Parte 2 y P art 3 ), donde ya hemos mostrado cómo instalar la herramienta ' mdadm '. Si es nuevo en este artículo, permítame explicarle que ' mdadm ' es una herramienta para crear y administrar Raid en sistemas Linux, instalemos la herramienta usando el siguiente comando de acuerdo con su distribución de Linux.
# yum install mdadm [en sistemas RedHat] # apt-get install mdadm [en sistemas Debain]
2. Después de instalar la herramienta, ahora es el momento de verificar las cuatro unidades conectadas que vamos a utilizar para la creación de incursiones utilizando el siguiente comando ' fdisk '.
# fdisk -l | grep sd
3. Antes de crear una unidad RAID, siempre examine nuestras unidades de disco si hay alguna RAID ya creada en los discos.
# mdadm -E /dev/sd [be] # mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde
Nota: En la imagen de arriba se muestra que no se detecta ningún superbloque o que no se define RAID en cuatro unidades de disco. Podemos avanzar más para comenzar a crear RAID 6.
Paso 2: Particionamiento de unidades para RAID 6
4. Ahora cree particiones para raid en ' /dev/sdb ', ' /dev/sdc ', ' /dev/sdd ' y ' /dev/sde ' con la ayuda del siguiente comando fdisk . Aquí, le mostraremos cómo crear una partición en la unidad sdb y luego los mismos pasos a seguir para el resto de las unidades.
Crear /dev/partición sdb
# fdisk /dev/sdb
Siga las instrucciones que se muestran a continuación para crear una partición.
- Presione ' n ' para crear una nueva partición.
- Luego elija ' P ' para Partición primaria.
- Luego elija el número de partición como 1 .
- Defina el valor predeterminado simplemente presionando dos veces la tecla Intro .
- Luego presione ' P ' para imprimir la partición definida.
- Presione ' L ' para enumerar todos los tipos disponibles.
- Escriba ' t ' para elegir las particiones.
- Elija ' fd ' para Linux raid auto y presione Enter para aplicar.
- Luego, nuevamente use ' P ' para imprimir los cambios que hemos realizado.
- Use ' w ' para escribir los cambios.
Crear /dev/partición sdb
# fdisk /dev/sdc
Crear /dev/partición sdd
# fdisk /dev/sdd
Crear /dev/partición sde
# fdisk /dev/sde
5. Después de crear particiones, siempre es una buena costumbre examinar las unidades en busca de superbloques. Si no existen superbloques, entonces podemos ir a crear una nueva configuración RAID.
# mdadm -E /dev/sd[be]1 o # mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
Paso 3: Crear un dispositivo md (RAID)
6. Ahora es el momento de crear el dispositivo Raid ' md0 ' (es decir, /dev/md0 ) y aplicar el nivel de banda en todas las particiones recién creadas y confirmar la banda usando los siguientes comandos.
# mdadm --create /dev/md0 --level = 6 --raid-devices = 4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 # cat /proc/mdstat
7. También puede verificar el proceso actual de incursión usando el comando watch como se muestra en la captura de pantalla a continuación.
# watch -n1 cat /proc/mdstat
8. Verifique los dispositivos de incursión con el siguiente comando.
# mdadm -E /dev/sd [be] 1
Nota: El comando anterior mostrará la información de los cuatro discos, que es bastante larga, por lo que no es posible publicar el resultado o la captura de pantalla aquí.
9. Luego, verifique la matriz RAID para confirmar que se inicia la resincronización.
# mdadm --detail /dev/md0
Paso 4: Crear FileSystem en un dispositivo Raid
10. Cree un sistema de archivos usando ext4 para ' /dev/md0 ' y móntelo en /mnt/raid6 . Aquí hemos usado ext4, pero puede usar cualquier tipo de sistema de archivos según su elección.
# mkfs.ext4 /dev/md0
11. Monte el sistema de archivos creado en /mnt/raid6 y verifique los archivos en el punto de montaje, podemos ver el directorio perdido + encontrado.
# mkdir /mnt/raid6 # mount /dev/md0 /mnt/raid6 / # ls -l /mnt/raid6 /
12. Cree algunos archivos debajo del punto de montaje y agregue texto en cualquiera de los archivos para verificar el contenido.
# touch /mnt/raid6/raid6_test.txt # ls -l /mnt/raid6 / # echo "configuraciones de incursión tecmint"> /mnt/raid6/raid6_test.txt # cat /mnt/raid6/raid6_test.txt
13. Agregue una entrada en /etc/fstab para montar automáticamente el dispositivo al inicio del sistema y agregue la entrada a continuación, el punto de montaje puede diferir según su entorno.
# vim /etc/fstab /dev/md0 /mnt/raid6 ext4 por defecto 0 0
14. Luego, ejecute el comando ' mount -a ' para verificar si hay algún error en la entrada fstab.
# mount -av
Paso 5: Guardar la configuración de RAID 6
15. Tenga en cuenta que por defecto RAID no tiene un archivo de configuración. Tenemos que guardarlo manualmente usando el siguiente comando y luego verificar el estado del dispositivo ' /dev/md0 '.
# mdadm --detail --scan --verbose >> /etc/mdadm.conf # mdadm --detail /dev/md0
Paso 6: Agregar unidades de repuesto
16. Ahora tiene 4 discos y hay dos datos de paridad disponibles. En algunos casos, si alguno de los discos falla, podemos obtener los datos, porque hay una doble paridad en RAID 6.
Puede ser que si el segundo disco falla, podemos agregar uno nuevo antes de perder el tercer disco. Es posible agregar una unidad de repuesto al crear nuestro conjunto RAID, pero no he definido la unidad de repuesto al crear nuestro conjunto RAID. Pero, podemos agregar una unidad de repuesto después de cualquier falla de la unidad o al crear el conjunto RAID. Ahora ya hemos creado el conjunto RAID, ahora me permite agregar una unidad de repuesto para la demostración.
Para fines de demostración, he conectado en caliente un nuevo disco HDD (es decir, /dev/sdf ), verifiquemos el disco conectado.
# ls -l /dev/ | grep sd
17. Ahora confirme nuevamente que el nuevo disco conectado para cualquier incursión ya está configurado o no está utilizando el mismo comando mdadm .
# mdadm --examine /dev/sdf
Nota: Como de costumbre, al igual que hemos creado particiones para cuatro discos anteriormente, de manera similar tenemos que crear una nueva partición en el nuevo disco conectado usando el comando fdisk .
# fdisk /dev/sdf
18. Nuevamente, después de crear una nueva partición en /dev/sdf , confirme la incursión en la partición, incluya la unidad de repuesto en el dispositivo de incursión /dev/md0 y verifique el dispositivo agregado.
# mdadm --examine /dev/sdf # mdadm --examine /dev/sdf1 # mdadm --add /dev/md0 /dev/sdf1 # mdadm --detail /dev/md0
Paso 7: Verifique la tolerancia a fallos de la incursión 6
19. Ahora, verifiquemos si la unidad de repuesto funciona automáticamente, si alguno de los discos falla en nuestra matriz. Para las pruebas, he marcado personalmente que una de las unidades ha fallado.
Aquí, vamos a marcar /dev/sdd1 como unidad fallida.
# mdadm --manage --fail /dev/md0 /dev/sdd1
20. Permítanme obtener los detalles del conjunto RAID ahora y verificar si nuestro repuesto comenzó a sincronizarse.
# mdadm --detail /dev/md0
¡Hurra! Aquí, podemos ver que el repuesto se activó y comenzó el proceso de reconstrucción. En la parte inferior podemos ver la unidad defectuosa /dev/sdd1 listada como defectuosa. Podemos monitorear el proceso de compilación usando el siguiente comando.
# cat /proc/mdstat
Configuración terminada.
Aquí, hemos visto cómo configurar RAID 6 usando cuatro discos. Este nivel RAID es una de las configuraciones costosas con alta redundancia. Veremos cómo configurar un RAID 10 anidado y mucho más en los próximos artículos. Hasta entonces, mantente conectado con TECMINT .
-
RAID
- Configurar RAID Nivel 6 (Stripe con doble paridad distribuida) en Linux
- Cómo configurar el software RAID 1 en un sistema en funcionamiento.
- Almacenamiento RAID 5 virtual usando Internet como soporte
- Recuperar datos de particiones de RAID1 LVM
- Remplazar un Disco Duro averiado en un RAID1
- Cómo crear tu server de mirroring RAID-1 en Linux
- Cómo configurar el software RAID 1, corriendo sobre un sistema LVM (incluida la
- Cómo utilizar LVM para migrar a un sistema de archivos a un RAID
- Cómo configurar el software RAID 1, en un sistema en explotación. (Debian Lenny)
- Cómo configurar RAID 1 por software en un sistema LVM en ejecución (Ubuntu 10.04
- Cómo configurar RAID 1 por software en un sistema de ejecución (Ubuntu 10.04)
- Configurar RAID 1 por Software en un Sistema en ejecución LVM (Debian Squeeze)
- Crear un RAID en Linux.
- Configurar el Software RAID1 en un sistema LVM en funcionamiento
- Crear y migrar LVM con varios filesystems en un dispositivo RAID Linux