Ampliar FileSystem en cluster AIX HACMP

Vamos a listar de FS que tenemos

[AIXServer].root:/ > df -m
Filesystem    MB blocks      Free %Used    Iused %Iused Mounted on
/dev/hd4         256.00    140.58   46%     3021     3% /
/dev/hd2        2688.00    740.54   73%    34655     6% /usr
/dev/hd9var     5120.00   1268.55   76%     2043     1% /var
/dev/hd3         512.00    477.04    7%     1053     1% /tmp
/dev/hd1         128.00     97.62   24%      412     2% /home
/proc                 –         –    –         –     –  /proc
/dev/hd10opt     256.00     91.47   65%     3065     5% /opt
/dev/inst_lv    1920.00    617.22   68%      402     1% /usr/sys/inst.images
/dev/admin    128.00     73.79   43%      102     1% /usr/local/admin
/dev/tempinglv   1920.00    593.36   70%      753     1% /temping
/dev/loglv      1024.00    251.11   76%      977     1% /logs
/dev/securitelv   2432.00      0.00  100%      938     1% /tools/securite
/dev/rcu_lv    17408.00   3071.92   83%    65214     9% /home/app
/dev/lv1         496.00    495.60    1%       10     1% /nfs1test

Queremos ampliar el FS /dev/rcu_lv de 17Gb a 20Gb

Vamos a listar el tamaño de este FS (se muestra en bloques de 512, cosas de la historia)

[AIXServer].root:/ > lsfs /dev/rcu_lv
Name            Nodename   Mount Pt               VFS   Size    Options    Auto Accounting
/dev/rcu_lv     —         /home/app              jfs2  35651584 rw         no   no

Calculamos el nuevo espacio. En nuestro caso pasamos de 17Gb a 20Gb

[AIXServer].root:/ > bc
35651584/2                                        (dividimos por 2 por el tema de los bloques de 512)
17825792
17825792/1024                                  (para mostrar el tamaño en Mb)
17408
17408/1024                                        (para mostrar el tamaño de Gb)
17                                                       (los 17Gb que tenemos tendremos que calcular el tamaño nuevo)
20*1024*1024*2                               (queremos 20Gb y vamos a pasarlo en bloques de 512)
41943040 (este es el nuevo tamaño)

Ampliaremos el FS por smitty desde la opción de HACMP. si lo hicieramos directamente en la maquina, el nodo pasivo no se daria cuenta del cambio y al balancear el servicio tendriamos problemas

Vamos a Smitty HACMP
[AIXServer].root:/ > smitty hacmp

Vamos a System Management (C-SPOC)

HACMP Logical Volume Management

Shared File Systems

Enhanced Journaled File Systems

Nota! Tal y como dice Carlos-Vindobona en los comentarios, si el FS es JFS en vez de JFS2 (que es con el que trabajamos ahora) marcariamos “Journaled File Systems”

Change / Show Characteristcs of a Shared Enhanced Journaled File Systems

Ahora ponemos en SIZE of file system el resultado de 20Gb*1024*1024*2=41943040

 

Enter y…

Ya tenemos el resultado, el nuevo FS tiene 20Gb de espacio

Vamos a verlo;

[AIXServer].root:/ > df -m
Filesystem    MB blocks      Free %Used    Iused %Iused Mounted on
/dev/hd4         256.00    140.58   46%     3021     3% /
/dev/hd2        2688.00    740.54   73%    34655     6% /usr
/dev/hd9var     5120.00   1277.39   76%     2043     1% /var
/dev/hd3         512.00    477.04    7%     1053     1% /tmp
/dev/hd1         128.00     97.62   24%      412     2% /home
/proc                 –         –    –         –     –  /proc
/dev/hd10opt     256.00     91.47   65%     3065     5% /opt
/dev/inst_lv    1920.00    617.22   68%      402     1% /usr/sys/inst.images
/dev/admin    128.00     73.79   43%      102     1% /usr/local/admin
/dev/tempinglv   1920.00    593.36   70%      753     1% /temping
/dev/loglv      1024.00    251.10   76%      977     1% /logs
/dev/securitelv   2432.00      0.00  100%      938     1% /tools/securite
/dev/rcu_lv    20480.00   6143.82   71%    65214     5% /home/app
/dev/lv1         496.00    495.60    1%       10     1% /nfs1test

Advertisements

Nagios Operations Dashboard

Buscando cosas de nagios he encontrado un Nagios Operations Dashboard

Es un dashboard pensado para entornos de Operación. Simplicidad al maximo.  Muestra solo las alertas Critical y Warning

Este Dashboard se basa en 2 ficheros;

nagios.php (que te muestra la web)

nagios_get.php (que revisa el estado de Nagios por el fichero status.dat, este es llamado por nagios.php)

Lo unico que tenemos que hacer es modificar el fichero nagios_get.php indicando donde tenemos el fichero status.dat

En la sección nagios dejo colgada la versión para la web. En caso de tener alguna alerta aparecerá en dicha sección Link

Dejo aqui un link de descarga del software dash y su web oficial

P.D. Parece que hay una versión 2 de esta herramienta, pero esta nueva versión es para Nagios con Mysql, ya que la ultima usa el status.dat. Nueva Versión

Nagios 3.2.3 + Nagios Theme + Cacti en Debian 6 Squeeze

Nagios

Instalamos Apache, PHP y librerias;
 
apt-get install apache2 libapache2-mod-php5 build-essential php5 libgd-graph-perl postfix
 
Creamos los usuarios y grupos;
 
/usr/sbin/useradd -m -s /bin/bash nagios
passwd nagios
/usr/sbin/groupadd nagcmd
/usr/sbin/usermod -a -G nagcmd nagios
/usr/sbin/usermod -a -G nagcmd www-data
 
Descargamos el software de Nagiosmkdir ~/downloads
 
mkdir ~/downloads
cd ~/downloads
Compilamos e instalamos el software
 
tar xzf nagios-3.2.3.tar.gz
cd nagios-3.2.3
./configure –with-command-group=nagcmd
make all
make install
make install-init
make install-config
make install-commandmode
 
Editamos el fichero de contactos modificando el email definido actualmente por el nuestro;
 
vim /usr/local/nagios/etc/objects/contacts.cfg
 
define contact{
contact_name     nagiosadmin             ; Short name of user
use                generic-contact         ; Inherit default values from generic-contact template (defined above)
alias              Nagios Admin            ; Full name of user
email             nagios@osties.com ; <<***** CHANGE THIS TO YOUR EMAIL ADDRESS ******
}
Seguimos con la instalación;
 
make install-webconf
htpasswd -c /usr/local/nagios/etc/htpasswd.users nagiosadmin
/etc/init.d/apache2 reload
cd ~/downloads
tar xzf nagios-plugins-1.4.11.tar.gz
cd nagios-plugins-1.4.11
./configure –with-nagios-user=nagios –with-nagios-group=nagios
make
make install
 
Lo configuramos para iniciarse con el sistema;
 
ln -s /etc/init.d/nagios /etc/rcS.d/S99nagios
 
El siguiente comando se utuliza para ver si el nagios (binario) funciona correctamente con el nagios.cfg (similar al apache2ctl -t en Apache) Asi veremos si funcionan nuestras modificaciiones
 
/usr/local/nagios/bin/nagios -v /usr/local/nagios/etc/nagios.cfg
/etc/init.d/nagios start
 
Ya podemos acceder a nuestro servidor http://pre.osties.com/nagios/ User:nagiosadmin
Una virtud de Nagios no es su entorno grafico. Por eso vamos a modificarle el frontend.
cd ~/downloads
unzip vautour_style.zip -d ./vautour
cp -Rfa /usr/local/nagios/share /usr/local/nagios/share_OLD
cp -Rfa vautour/* /usr/local/nagios/share/
 
Ahora ya tenemos un Nagios mas “visible”.

CACTI:

En el caso del cacti, el procedimiento es el mismo que en Debian 5 Lenny. Dejo aqui el mismo procedimiento que ya colgue en su dia para Debian 5.
apt-get install mysql-server rrdtool snmp
 
Activaremos la extensión para el SNMP añadiendo la siguientes lineas;
 
 
vim /etc/php5/conf.d/snmp.ini
 
; Enable snmp extension module
 
extension=snmp.so
file_uploads = On
vim /etc/apache2/mods-enabled/php5.conf (Añadimos o modificamos los siguientes campos)
 
# PHP is an HTML-embedded scripting language which attempts to make it
 # easy for developers to write dynamically generated webpages.
 
LoadModule php5_module modules/libphp5.so
 
# Cause the PHP interpreter to handle files with a .php extension.
 
AddHandler php5-script .php
 AddType text/html .php
 # Add index.php to the list of files that will be served as director
# indexes.
 
DirectoryIndex index.php
 
vim /etc/apache2/httpd.conf
 
Include conf.d/*.conf
Vamos  a preparar la MySQL para la instalación de CACTI;
 
 
mysqladmin -u root –p create cacti
cd /tmp
tar xzvf cacti-0.8.7g.tar.gz
mv cacti-0.8.7g/var/www/cacti
cd /var/www/cacti/
mysql -u root -p cacti < cacti.sql
adduser cacti
mysql -u root -p mysql
mysql> GRANT ALL ON cacti.* TO cacti@localhost IDENTIFIED BY ’somepassword’;
 
mysql> flush privileges;
 mysql> quit
 
 
Agregamos las siguientes lineas;
 
 
vim include/config.php
$database_type = “mysql”;
 $database_default = “cacti”;
 $database_hostname = “localhost”;
 $database_username = “cacti”;
 $database_password = “cacti”;
Con los passwords que hemos puesto y el usuario que toca.
chown -R cacti log
chown -R cacti rra
Agregamos;
vim /etc/crontab
*/5 *   * * *   cacti   php /var/www/cacti/poller.php > /dev/null 2>&1
Nos conectamos con http://pre.osties.com/cacti y pulsamos Next 2 veces y Finish
Cacti
Cacti
Cacti Resumen Instalación
Cacti Login
Nos logamos como Admin y passwd : admin. Luego cambiamos el password y ya podremos añadir los hosts
Ya tenemos nuestro entorno de gráficas ;)
Cacti Inside

Aumentar DumpDevice AIX

El dumpDevice en AIX se usa para que, en caso de problemas de inicio de la maquina tener un VG para dejar un dump con toda la información de la maquina y asi poder hacer un analisis.

Este VG, se puede ampliar ya que en muchos casos, el espacio asignado no sera suficiente.

Aqui tenemos un listado de los LV donde podemos ver el sysdump

root:/root > /usr/sbin/lsvg -o|/usr/sbin/lsvg -i -l

LV NAME TYPE LPs PPs PVs LV STATE MOUNT POINT
hd5 boot 1 2 2 closed/syncd N/A
hd6 paging 17 34 2 open/syncd N/A
hd8 jfs2log 1 2 2 open/syncd N/A
hd4 jfs2 5 10 2 open/syncd /
hd2 jfs2 80 160 2 open/syncd /usr
hd9var jfs2 7 14 2 open/syncd /var
hd3 jfs2 14 28 2 open/syncd /tmp
hd1 jfs2 1 2 2 open/syncd /home
hd10opt jfs2 9 18 2 open/syncd /opt
hd7 sysdump 6 6 1 closed/syncd N/A

Para ver el tamaño estimado necesario para el dump de la maquina hacemos;

root:/root > sysdumpdev -e0453-041 Estimated dump size in bytes: 262353715

Si lo queremos aumentar hacemos;

(como root)

smitty  lvm
    Logical Volume
         Set Characteristic of a Logical Volume
            Increase the Size of a Logical Volume
                Logical Volume Name  = lg_dumplv
 Nota! Si pulsamos F4 nos mostrara un listado de los LV que tenemos
                    Number of additional LOGICAL PARTITION = 1

INTRO

Si vemos de nuevo los VG vemos que hemos ampliado en 1 PP el VG de DumpDevice

root:/root > /usr/sbin/lsvg -o|/usr/sbin/lsvg -i -l

LV NAME TYPE LPs PPs PVs LV STATE MOUNT POINT
hd5 boot 1 2 2 closed/syncd N/A
hd6 paging 17 34 2 open/syncd N/A
hd8 jfs2log 1 2 2 open/syncd N/A
hd4 jfs2 5 10 2 open/syncd /
hd2 jfs2 80 160 2 open/syncd /usr
hd9var jfs2 7 14 2 open/syncd /var
hd3 jfs2 14 28 2 open/syncd /tmp
hd1 jfs2 1 2 2 open/syncd /home
hd10opt jfs2 9 18 2 open/syncd /opt
hd7 sysdump 7 7 1 closed/syncd N/A

 

Logicamente el proceso de ampliación de este VG es extrapolable a todos los VG

TXT_DB error number en OpenVPN

Estoy preparando mi VPN y me he encontrado con un error al firmar el certificado especifico para la VPN;

TXT_DB error number

La solución es simple. Yo ya tenia otro certificado firmado, para mi postfix y en este caso, el apartado commonName tenia que ser distino, sino salia este error.

Certificado postfix;

Subject:
countryName = SP
stateOrProvinceName = Barcelona
organizationName = osties.com
organizationalUnitName = osties.com
commonName = Enric Solsona
emailAddress = enric.solsona@gmail.com

Certificado openVPN;

Subject:
countryName = SP
stateOrProvinceName = Barcelona
organizationName = osties.com
organizationalUnitName = osties.com
commonName = Enric Solsona Sola
emailAddress = enric.solsona@gmail.com

Volúmenes lógicos (LVM) Crear, modificar VG y LV

 

LVM es mucho más flexible, permitiendo añadir espacio adicional a volúmenes ya creados de manera transparente y simple.

Pasamos a ver los conceptos para entender la base del sistema.

Estructura LVM

Para que todo funcione es necesario instalar el paquete lvm10 o lvm2, recomiendo la versión 2 aunque la mayoría de distribuciones todavía mantengan la versión 1. Hay que asegurarse de que haya un script en el arranque para poner el marcha LVM.

Lo primero de todo es hacer las particiones, puede hacerse con cfdisk. Si se usa una versión anterior a la 2 de LVM, es obligatorio definir el tipo como Linux LVM.

Hay que destacar que la partición que contenga /boot no podrá formar parte de un volumen lógico, los cargadores de arranque no suelen soportarlo. En nuestro caso se trata de hda1.

Buscamos el nuevo disco

Si hemos agregado un disco hace poco podemos ver el device que ha sido generado con un fdisk -l. En mi caso he agregado un disco de 43Gb de mi VMWare a la maquina;

root@http:~# fdisk -l
Disc /dev/sdb: 42.9 GB, 42949672960 octets
255 heads, 63 sectors/track, 5221 cylinders
Units = cilindres of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Damos soporte para LVM a las otras dos particiones, este paso borrará TODOS los datos existentes.

root@http:~# pvcreate /dev/sdb
Physical volume “/dev/sdb” successfully created

Ahora creamos el VolumGroup que contendra tantos VolumGroup como queramos.

root@http:~# vgcreate VolumGroup2 /dev/sdb
Volume group “VolumGroup2” successfully created

Vamos a ver el resultado con vgdisplay:

root@http:~# vgdisplay
— Volume group —
VG Name VolumGroup2
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 40,00 GiB
PE Size 4,00 MiB
Total PE 10239
Alloc PE / Size 0 / 0
Free PE / Size 10239 / 40,00 GiB
VG UUID 0er3jx-M6p7-qsDC-WiHM-Qem3-n3R6-0xqhsK

Vamos a crear los volúmenes lógicos. Crearemos 2. Uno de 5, otro de 30 y dejaremos 5 libres para poder ampliar

root@http:~# lvcreate -L5,00G -n LV5GB VolumGroup2
Logical volume “LV5GB” created
root@http:~# lvcreate -L30,00G -n LV30GB VolumGroup2
Logical volume “LV30GB” created

El parámetro -L es lo “large” que es el disco. Vamos, el tamaño que queremos de LV. El parametro -n define el nombre del LV

Vamos a ver el resultado con LVDISPLAY

root@http:~# lvdisplay VolumGroup2
— Logical volume —
LV Name /dev/VolumGroup2/LV5GB
VG Name VolumGroup2
LV UUID YAKkwE-tYrp-O233-3r1B-YzNi-cOn2-dE6FQT
LV Write Access read/write
LV Status available
# open 0
LV Size 5,00 GiB
Current LE 1280
Segments 1
Allocation inherit
Read ahead sectors auto
– currently set to 256
Block device 254:6

— Logical volume —
LV Name /dev/VolumGroup2/LV30GB
VG Name VolumGroup2
LV UUID gJTafK-o0Al-pDNt-UIXJ-nUtp-YAkx-oZgNz3
LV Write Access read/write
LV Status available
# open 0
LV Size 30,00 GiB
Current LE 7680
Segments 1
Allocation inherit
Read ahead sectors auto
– currently set to 256
Block device 254:7

Vamos a darle formato con mkfs. Podemos realizar distintos formatos, XFS, EXT3 etc..

root@http:~# mkfs.ext3 /dev/VolumGroup2/LV30GB
mke2fs 1.41.12 (17-May-2010)
Etiqueta del sistema de fitxers=
Tipus de sistema operatiu: Linux
Mida del bloc=4096 (log=2)
Mida del fragment=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
1966080 nodes-i, 7864320 blocs
393216 blocs (5.00%) reservats per al superusuari
Bloc de dades inicial=0
MÃ xim de blocs del sistema de fitxers=0
240 grups de blocs
32768 blocs per grup, 32768 fragments per grup
8192 nodes-i per grup
Còpies de seguretat del superbloc desades en els blocs:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000
Escriptura de les taules de nodes-i: 30/240
fet
Creació del registre de transaccions (32768 blocs): fet
Escriptura de la informació dels súperblocs i de comptabilitat del sistema de fitxers:fet


Agregar en fstab

Ahora solo queda agregar el disco en el fstab para que lo monte cada vez que arranque el sistema

/dev/VolumGroup2/LV30GB /backup ext3 defaults 0 0

El resultado final

 

root@http:~# df -h
S. fitxers Mida En ús Lliure %Ãs Muntat a
/dev/mapper/pont-root 322M 107M 199M 35% /
tmpfs 125M 0 125M 0% /lib/init/rw
udev 120M 120K 120M 1% /dev
tmpfs 125M 0 125M 0% /dev/shm
/dev/sda1 228M 15M 202M 7% /boot
/dev/mapper/pont-home 2,7G 78M 2,5G 3% /home
/dev/mapper/pont-tmp 225M 6,1M 208M 3% /tmp
/dev/mapper/pont-usr 2,7G 495M 2,1G 20% /usr
/dev/mapper/pont-var 1,4G 935M 337M 74% /var
/dev/mapper/VolumGroup2-LV30GB 30G 173M 28G 1% /backup

root@http:~# vgdisplay
— Volume group —
VG Name VolumGroup2
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 3
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 1
Max PV 0
Cur PV 1
Act PV 1
VG Size 40,00 GiB
PE Size 4,00 MiB
Total PE 10239
Alloc PE / Size 8960 / 35,00 GiB
Free PE / Size 1279 / 5,00 GiB
VG UUID 0er3jx-M6p7-qsDC-WiHM-Qem3-n3R6-0xqhsK

 

Ampliar LogicalVolum

Si queremos ampliar el Volumen, tendremos que poner el nuevo tamaño, no el tamaño ampliar

root@http:~# lvextend -L34G /dev/mapper/VolumGroup2-LV30GB
Extending logical volume LV30GB to 34,00 GiB
Logical volume LV30GB successfully resized

Indicamos al sistema el nuevo tamaño

root@http:~# resize2fs /dev/mapper/VolumGroup2-LV30GB
resize2fs 1.41.12 (17-May-2010)
El sistema de fitxers a /dev/mapper/VolumGroup2-LV30GB està muntat a /backup; cal un canvi de mida en línia
old desc_blocks = 2, new_desc_blocks = 3
Canvi de mida en línia de /dev/mapper/VolumGroup2-LV30GB a 8912896 (4k) blocs.
El sistema de fitxers a /dev/mapper/VolumGroup2-LV30GB té ara una mida de 8912896 blocs.

En XFS seria: xfs_growfs /punto_montaje

Ya tenemos ampliado el LV

root@http:~# df -h
S. fitxers Mida En ús Lliure %Ãs Muntat a
/dev/mapper/pont-root 322M 107M 199M 35% /
tmpfs 125M 0 125M 0% /lib/init/rw
udev 120M 120K 120M 1% /dev
tmpfs 125M 0 125M 0% /dev/shm
/dev/sda1 228M 15M 202M 7% /boot
/dev/mapper/pont-home 2,7G 78M 2,5G 3% /home
/dev/mapper/pont-tmp 225M 6,1M 208M 3% /tmp
/dev/mapper/pont-usr 2,7G 495M 2,1G 20% /usr
/dev/mapper/pont-var 1,4G 935M 337M 74% /var
/dev/mapper/VolumGroup2-LV30GB 34G 177M 32G 1% /backup

 

Agregar un disco al VolumGroup

Primero detectamos el nuevo disco y creamos el soporte a VolumGroup:

pvcreate /dev/hdb1


Luego ampliamos el VolumGroup

vgextend grupo_volumen /dev/hdb1

 


Mas información en: http://www.tldp.org/HOWTO/LVM-HOWTO/