TipsAndTricks >> BondingInterfaces

Manual from: source

What is bonding and how does it work

Bonding is the same as port trunking. In the following I will use the word bonding because practically we will bond interfaces as one.

Bonding allows you to aggregate multiple ports into a single group, effectively combining the bandwidth into a single connection. Bonding also allows you to create multi-gigabit pipes to transport traffic through the highest traffic areas of your network. For example, you can aggregate three megabits ports into a three-megabits trunk port. That is equivalent with having one interface with three megabytes speed.

 

Where should I use bonding?

You can use it wherever you need redundant links, fault tolerance or load balancing networks. It is the best way to have a high availability network segment. A very useful way to use bonding is to use it in connection with 802.1q VLAN support (your network equipment must have 802.1q protocol implemented).

 

What are the types of bonding available

The best documentation is on the Linux Channel Bonding Project page http://sourceforge.net/projects/bonding/

mode=1 (active-backup)

Active-backup policy: Only one slave in the bond is active. A different slave becomes active if, and only if, the active slave fails. The bond’s MAC address is externally visible on only one port (network adapter) to avoid confusing the switch. This mode provides fault tolerance. The primary option affects the behavior of this mode.

mode=2 (balance-xor)

XOR policy: Transmit based on [(source MAC address XOR’d with destination MAC address) modulo slave count]. This selects the same slave for each destination MAC address. This mode provides load balancing and fault tolerance.

mode=3 (broadcast)

Broadcast policy: transmits everything on all slave interfaces. This mode provides fault tolerance.

mode=4 (802.3ad)

IEEE 802.3ad Dynamic link aggregation. Creates aggregation groups that share the same speed and duplex settings. Utilizes all slaves in the active aggregator according to the 802.3ad specification.

  • Pre-requisites:
  • Ethtool support in the base drivers for retrieving the speed and duplex of each slave.
  • A switch that supports IEEE 802.3ad Dynamic link aggregation. Most switches will require some type of configuration to enable 802.3ad mode.

mode=5 (balance-tlb)

Adaptive transmit load balancing: channel bonding that does not require any special switch support. The outgoing traffic is distributed according to the current load (computed relative to the speed) on each slave. Incoming traffic is received by the current slave. If the receiving slave fails, another slave takes over the MAC address of the failed receiving slave.

  • Prerequisite: Ethtool support in the base drivers for retrieving the speed of each slave.

mode=6 (balance-alb)

Adaptive load balancing: includes balance-tlb plus receive load balancing (rlb) for IPV4 traffic, and does not require any special switch support. The receive load balancing is achieved by ARP negotiation. The bonding driver intercepts the ARP Replies sent by the local system on their way out and overwrites the source hardware address with the unique hardware address of one of the slaves in the bond such that different peers use different hardware addresses for the server.

 

Bonding on CentOS 4

In the modprobe.conf file, add the following:

 

alias bond0 bonding 
options bond0 miimon=80 mode=5

Be sure to add this before any of the network aliases

 

modes: 
mode=0 (Balance Round Robin)
mode=1 (Active backup)
mode=2 (Balance XOR)
mode=3 (Broadcast)
mode=4 (802.3ad)
mode=5 (Balance TLB)
mode=6 (Balance ALB)

In the /etc/sysconfig/network-scripts/ directory create the configuration file: ifcfg-bond0

 

DEVICE=bond0 
IPADDR=<ip address>
NETMASK=
NETWORK=
BROADCAST=
GATEWAY=
ONBOOT=yes
BOOTPROTO=none
USERCTL=no

Change the ifcfg-eth0 to participate in the new bond device:

DEVICE=eth0 
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
SLAVE=yes

Check the status of the bond.

cat /proc/net/bonding/bond0

You can use multiple bond interfaces but for that you must load the bonding module as many as there are bond links, possibly with varying options. Presuming that you want two bond interfaces, you must configure /etc/modules.conf as follow:

 alias bond0 bonding
 options bond0 -o bond0 mode=0 miimon=100
 alias bond1 bonding
 options bond1 -o bond1 mode=1 miimon=100

To manage the state of the bonds yourself you can use the ifenslave command. See the manpage of ifenslave for the details.

 

Post CentOS 4

As time has passed, edits in /etc/modprobe.conf are disfavored, in preference to writing, and the initscripts parsing, smaller configuration files that should, but are not yet required, to end in a .conf suffix. Those files are placed in: /etc/modprobe.d/ and sourced in alphabetical sequence. It makes sense to adopt the naming practice, to ‘future proof’ a distribution move to an ‘init’ successor such as systemd

Monitoring Weblogic with Munin

Primero de todo tenemos que extraer los datos de HEAP, CPU y Daemons & Threads del adminserver de nuestro dominio Weblogic. Posteriormente dejamos estos datos en un fichero para que el script de munin (3 en total) recoja dichos datos y sean enviados al servidor.

Extraer datos de Weblogic.

Para hacer esto usaremos el conocido jython. Para hacerlo crearemos un script en el cron que se ejecute cada 5 min;

 

crontab -l

*/5 * * * * /usr/share/munin/scripts/weblogic_plugin.sh > /dev/null 2>&1

 

Este script se conectará al Admin, ira por cada uno de los managed server (incluso el Admin). Y sacara los datos dejándolos en un fichero de texto. En nuestro caso;

/wls/export_wls_status.sh

El script weblogic_plugin.sh es;

/opt/jrmc/bin/java -cp /opt/bea/wls/weblogic.jar weblogic.WLST /usr/share/munin/scripts/weblogic_py_script_DOMAIN1.py  > /wls/export_wls_status

/opt/jrmc/bin/java -cp /opt/bea/wls/weblogic.jar weblogic.WLST /usr/share/munin/scripts/weblogic_py_script_DOMAIN2.py >> /wls/export_wls_status

 

Nota!!

Quizás tendréis que modificar el directorio del binario de java (/opt/jrmc/bin/) así como del fichero weblogic.jar (/opt/bea/wls/) en función de vuestra configuración.

 

Este script de cron sacará todos los datos, pero el que realmente se conecta al Weblogic es el script weblogic_py_DOMAIN.py Este script es;

username = ‘usuario’

password = ‘password’

URL=’t3://localhost:1111′

connect(username,password,URL)

domainConfig()

domini=cmo.getName()

serverList=cmo.getServers();

domainRuntime()

cd(‘/ServerLifeCycleRuntimes/’)

for server in serverList:

name=server.getName()

cd(name)

serverState=cmo.getState()

cd(“/ServerRuntimes/”+server.getName()+”/JVMRuntime/”+server.getName())

sizeHP=cmo.getHeapSizeCurrent()

usedHP=cmo.getUsedHeap()

proces=cmo.getAllProcessorsAverageLoad()

timegc=cmo.getLastGCEnd()

daemon=cmo.getNumberOfDaemonThreads()

thread=cmo.getTotalNumberOfThreads()

 

print domini,’PRO’,  name,’SizeHPWLS ‘,sizeHP

print domini,’PRO’,  name,’UsedHPWLS ‘,usedHP

print domini,’PRO’,  name,’ProcesWLS ‘,proces

print domini,’PRO’,  name,’TimeGCWLS ‘,timegc

print domini,’PRO’,  name,’DaemonWLS ‘,daemon

print domini,’PRO’,  name,’ThreadWLS ‘,thread

 

domainConfig()

domainRuntime()

cd(‘/ServerLifeCycleRuntimes/’)

 

Una vez tenemos los datos en un fichero de texto podremos tratarlo. Dejo un ejemplo de cómo se queda el fichero con los datos:

 

DOMAIN1 PRO AdminServer SizeHPWLS  536870912

DOMAIN1 PRO AdminServer UsedHPWLS  454807648

DOMAIN1 PRO AdminServer ProcesWLS  0.0806008984095334

DOMAIN1 PRO AdminServer TimeGCWLS  1380632745493

DOMAIN1 PRO AdminServer DaemonWLS  51

DOMAIN1 PRO AdminServer ThreadWLS  52

DOMAIN1 PRO DOMAIN1_01 SizeHPWLS  1610612736

DOMAIN1 PRO DOMAIN1_01 UsedHPWLS  1199548792

DOMAIN1 PRO DOMAIN1_01 ProcesWLS  0.08062796813666061

DOMAIN1 PRO DOMAIN1_01 TimeGCWLS  1380629744340

DOMAIN1 PRO DOMAIN1_01 DaemonWLS  42

DOMAIN1 PRO DOMAIN1 _01 ThreadWLS  43

 

Para tratar el fichero crearemos un script en /usr/share/munin/plugins/ con el nombre que se quiera, en mi caso MANAGED_DOMAIN1_HEAP

El fichero básicamente hace un grep del dato que se quiera y lo devuelve. Para el HEAP busca SizeHPWLS, para daemons y threads DaemonWLS  y ThreadWLS y para CPU busca ProcesWLS

 

#!/bin/sh

case $1 in

config)

cat <<‘EOM’

graph_title Managed Servers Heap DOMAIN1_1

graph_vlabel HEAP USE/MAX

DOMAIN1_1_Size.label DOMAIN1_1 Max

DOMAIN1_1_Use.label DOMAIN1_1 Use

graph_scale yes

graph_category weblogic

graph_info Grafica Weblogic DOMAIN1_1 Heap Managed Servers

EOM

exit 0;;

esac

echo -n “P DOMAIN_1_Size.value ”

grep SizeHPWLS /wls/export_wls_status | grep DOMAIN1_1 | awk ‘{print $5}’

echo -n ” DOMAIN_1_Use.value ”

grep UsedHPWLS /wls/export_wls_status | grep DOMAIN1_1| awk ‘{print $5}’

 

Creamos el enlace simbólico;

cd /etc/munin/plugins

ln –s MANAGED_DOMAIN1_HEAP  /usr/share/munin/plugins/MANAGED_DOMAIN1_HEAP

Reiniciamos el agente

/etc/init.d/munin-node restart

Y en unos minutos ya lo tenemos en nuestro servidor

 

HEAP

Descarga de scripts: Weblogic & Munin Scripts

 

Munin monitoring How To

Munin es un software para monitorizar i graficar que nos permite analizar el estado de nuestros sistemas.

munin

Introducción

Funciona como un Cacti o Graphite pero a diferencia de estos dos Munin funciona con agentes. Esto podría ser un hándicap pero veremos que nos va ayudar mucho en la instalación y mantenimiento del entorno.

Hay dos partes, la cliente “munin-node” y la servidor “munin”

Aquí tenemos una imagen que nos va ayudar a entender cómo funciona.

 

munin design

El munin-master (servidor) se ejecuta cada 5 minutos desde el crond i ejecuta varios scripts;

Munin-update: Este se encarga de leer el fichero /etc/munin/munin.conf y recoger todos los clientes. Posteriormente se conecta por el puerto 4949/tcp i le dice al “munin-node” que ejecute todos los scripts que tiene en /etc/munin/plugins/ y le devuelva el resultado.

Munin-limites: Este analiza los datos obtenidos de los clientes y revisa si algunos de ellos está por encima del umbral marcado en la gráfica. En caso de ser así actualiza el estado de la gráfica  a “Warning” o “Critical”.

Munin-html: Se encarga de actualizar la web. Si ponemos nuevos nodos o dominios este actualizara la web. (Este no hace nada ejecutándose desde cron si está configurado como cgi)

Munin-graph: “La joya de la corona”. Usando las librerías de RRD-Tool y con los valores de “munin-update” se encarga de generar las gráficas. (Este no hace nada ejecutándose desde cron si está configurado como cgi)

 

Para “munin-html” y “munin-graph” los configuraremos como CGI. Las diferencias son;

Cron: Cuando lo configuramos como cron estos scripts generan todas las web y todas las gráficas cada vez que se ejecuta el script. En caso de tener unos 50 nodos en 5 minutos hay tiempo suficiente para realizar la tarea.

CGI: Configuraremos como CGI cuando tengamos muchos nodos. En mi instalación actualmente tengo 300 nodos con un total de 70.000 ficheros rrd y en 5 minutos no hay tiempo para procesarlo todo. Con esto lo que hacemos es que cada vez que entres en la web “munin-html” generará dicha web y cada vez que entres en un nodo “munin-graph” generará las gráficas que quieres visualizar.

Instalación (servidor)

En este caso vamos a realizar una instalación en una RedHat 5.9 64bits utilizando EPEL.

Registramos la maquina en RedHatNetwork, RedHat Satellite o usando un cd. (Basicamente necesitamos poder ejecutar yum)

 

Instalamos EPEL

cd /tmp/

wget http://dl.fedoraproject.org/pub/epel/5/x86_64/epel-release-5-4.noarch.rpm

rpm -Uvh /tmp/epel-release-5-4.noarch.rpm

 

Instalamos munin y munin-node (asi también monitorizamos en servidor)

 

yum install httpd mod_fcgid munin munin-node

 

2

 

chkconfig munin on

chkconfig munin-node on

 

Configuración (servidor)

El fichero principal de configuración es /etc/munin/munin.conf

Lo modificaremos poniendo solo los siguientes datos;

htmldir /var/lib/www/html/munin  #### (es el directorio de la web)

logdir /var/log/munin

includedir /etc/munin/conf.d

graph_period minute

graph_strategy cgi                         ##### Tiene que estar en cgi no en cron

cgiurl_graph /munin-cgi/munin-cgi-graph   #### Es la URL donde tiene los scripts de CGI (lo veremos al configurar el apache)

html_strategy cgi                            ##### Tienen que estar en cgi no en cron

max_processes 100                       ##### Por defecto viene en 16. Son los procesos que creara al ejecutar el munin-update. Si tienes mucha maquina pon un valor más alto. Aun así es bueno realizar varias pruebas hasta encontrar un buen valor.

##### Esto es un ejemplo de cómo crear un nodo cliente. Estos nodos son los que el script “munin-update” se conecta

[NODO_CLIENET.TEST]

address 192.168.0.1

use_node_name yes

 

Para más información de posibles configuraciones (LINK) http://munin-monitoring.org/wiki/munin.conf

 

Ahora ya tenemos configurado el munin para CGI, pero nos queda el apache…

Configuración APACHE para CGI:

En la configuración del apache tenemos que notificarle donde están los scripts para CGI.

Vamos al fichero /etc/httpd/conf.d/munin.conf

Comentaremos las líneas para entender posibles modificaciones.

 

<VirtualHost *:443> ### En mi caso uso SSL con certificado

SSLEngine on

SSLCertificateFile /etc/httpd/cert/selfsigned/munin.node.es.crt

SSLCertificateKeyFile /etc/httpd/cert/selfsigned/keys/ munin.node.es.key

ServerName munin.node.es

DocumentRoot /var/lib/www/html ###Importante que sea el mismo que hemos puesto en el fichero /etc/munin/munin.conf

<IfModule !mod_rewrite.c>

Alias /munin-cgi/munin-cgi-html/static /var/lib/www/html/munin/static ## Lo que hacemos en indicarle donde esta la web (parte estatica). Esto se ejecuta cada vez que entramos en la web

RedirectMatch ^/$ /munin-cgi/munin-cgi-html/

</IfModule>

<IfModule mod_rewrite.c>

RewriteEngine On

RewriteRule ^/favicon.ico /var/lib/www/html/munin/static/favicon.ico [L]

RewriteRule ^/static/(.*) /var/lib/www/html/munin/static/$1          [L]

# HTML (Cada vez que llamemos a una html este llamara al script munin-cgi-html

RewriteRule ^(/.*.html)?$           /munin-cgi/munin-cgi-html/$1 [PT]

# Images (Cada vez que solicitemos una grafica este llamara al script munin-cgi-graph

 

RewriteRule ^/munin-cgi/munin-cgi-graph/(.*) /$1

RewriteCond %{REQUEST_URI}                 !^/static

RewriteRule ^/(.*.png)$  /munin-cgi/munin-cgi-graph/$1 [L,PT]

</IfModule>

# Nos tenemos que asegurar que los script que están en /var/lib/www/cgi-bin/ son ejecutables

ScriptAlias /munin-cgi/munin-cgi-graph /var/lib/www/cgi-bin/munin-cgi-graph

<Location /munin-cgi/munin-cgi-graph>

Options +ExecCGI

<IfModule mod_fcgid.c>

SetHandler fcgid-script

</IfModule>

<IfModule mod_fastcgi.c>

SetHandler fastcgi-script

</IfModule>

<IfModule !mod_fastcgi.c>

<IfModule !mod_fcgid.c>

SetHandler cgi-script

</IfModule>

</IfModule>

Allow from all

</Location>

ScriptAlias /munin-cgi/munin-cgi-html /var/lib/www/cgi-bin/munin-cgi-html

<Location /munin-cgi/munin-cgi-html>

Options +ExecCGI

<IfModule mod_fcgid.c>

SetHandler fcgid-script

</IfModule>

<IfModule mod_fastcgi.c>

SetHandler fastcgi-script

</IfModule>

<IfModule !mod_fastcgi.c>

<IfModule !mod_fcgid.c>

SetHandler cgi-script

</IfModule>

</IfModule>

Allow from all

</Location>

<IfModule !mod_rewrite.c>

<Location /munin-cgi/munin-cgi-html/static>

Options -ExecCGI

SetHandler None

</Location>

</IfModule>

</VirtualHost>

 

Configuración (cliente)

Para el cliente editaremos el fichero /etc/munin/munin-node.conf y pondremos la IP del host servidor como una expresión regular;

allow ^192.168.0.2$

 

Información oficial de configuración de munin-node (LINK) http://munin-monitoring.org/wiki/munin-node.conf

 

debmirror, Repositorio local para paquetes en Debian Squeeze

Vamos a crear un repositorio local con debimirror para debian, en nuestro caso squeeze.

Primero de todo necesitamos un filesystem con espacio suficiente para poder dejar todos los paquetes necesarios. En mi caso lo dejamos con un FS de 100Gb ylo llamo /DADES2/mirror

Vamos a instalar el debimirror;

apt-get install debmirror

Una vez instalado, modificamos el script creado por Gary Sandi desde el este link

#!/bin/sh

ARQUITECTURA=i386

METODO=http

RAMA=lenny

RAMAS=lenny,squeeze,sid

HOST=ftp.fr.debian.org

HOST_SEGURIDAD=security.debian.org

HOST_MULTIMEDIA=ftp.debian-multimedia.org

 

DIR_MIRROR=/home/debian/debian

DIR_SEGURIDAD=/home/debian/updates

DIR_MULTIMEDIA=/home/debian/multimedia

 

SECCIONES=main,contrib,non-free

SECCION=main

 

echo "==================================================================="

echo "Actualizando los repositorios PRINCIPALES; main, contrib, non-free"

echo "==================================================================="

echo ""

debmirror -a ${ARQUITECTURA} 

-s ${SECCIONES} 

-h ${HOST}/debian 

-d ${RAMA} -r / --progress 

-e ${METODO} --ignore-release-gpg --nosource 

${DIR_MIRROR}

 

echo "====================================================================="

echo "Actualizando los repositorios de SEGURIDAD; main, contrib, non-free"

echo "====================================================================="

echo ""

debmirror -a ${ARQUITECTURA} 

-s ${SECCIONES} 

-h ${HOST_SEGURIDAD} 

-d ${RAMA}/updates -r /debian-security --progress 

-e ${METODO} --ignore-release-gpg --nosource 

${DIR_SEGURIDAD}

 

echo "==================================================================="

echo "Actualizando los repositorios MULTIMEDIA; main"

echo "==================================================================="

echo ""

debmirror -a ${ARQUITECTURA} 

-s ${SECCION} 

-h ${HOST_MULTIMEDIA} 

-d ${RAMAS} -r / --progress 

-e ${METODO} --ignore-release-gpg --nosource 

${DIR_MULTIMEDIA}

 

El script lo modificamos segun necesitad. En mi caso solo he modificado los siguientes parametros;

RAMA=squeeze

RAMAS=squeeze

HOST=ftp.caliu.cat

HOST_SEGURIDAD=security.debian.org

HOST_MULTIMEDIA=ftp.debian-multimedia.org


DIR_MIRROR=/DADES2/mirror

DIR_SEGURIDAD=/DADES2/mirror/updates

DIR_MULTIMEDIA=/DADES2/mirror/multimedia

Establecemos los permisos con un chmod +x nombre_script.sh

Ejecutamos y nos empieza a descargar todos los paquetes necesarios para hacer el mirror;

.................

[ 29%] Getting: pool/main/i/ibus/ibus-gtk_1.3.7-1_i386.deb... ok

[ 29%] Getting: pool/main/i/ibus/ibus_1.3.7-1_i386.deb... ok

[ 29%] Getting: pool/main/i/ibus/libibus-dev_1.3.7-1_i386.deb... ok

[ 29%] Getting: pool/main/i/ibus/libibus2_1.3.7-1_i386.deb... ok

[ 29%] Getting: pool/main/i/ibus/python-ibus_1.3.7-1_all.deb... ok

[ 29%] Getting: pool/main/i/ibutils/ibutils_1.2-OFED-1.4.2-1_i386.deb... ok

.................

Una vez finalizado (Tiene que decargar unas 60Gb) ya podemos configurar el apache.

apt-get install apache2

Editamos el fichero de configuración;

vim /etc/apache2/sites-enabled/defaul-000

Y modificamos el campo DocumentRoot con el directorio de nuestro repositorio;

DocumentRoot /DADES2/mirror/

Para poder configurar los clientes necesitamos configurar un servicio web o ftp para tener acceso a los ficheros. En nuestro caso, lo hacemos por http.

Instalamos un apache y creamos dos enlaces simbolicos en /var/www para que al conectarse a la web existan dos directorios, el debian y debian-security

Creamos los enlaces simbolicos

cd /var/www
ln -s /DADES/debian-repository/debian debian
ln -s /DADES/debian-repository/debian-security debian-security

 Para configurar los clientes solo tenemos que modificar el /etc/apt/source.list con los datos del nuevo servidor. Si antiguamente teniamos;

deb http://ftp.caliu.cat/debian/ squeeze main
deb-src http://ftp.caliu.cat/debian/ squeeze main

deb http://security.debian.org/ squeeze/updates main
deb-src http://security.debian.org/ squeeze/updates main

# squeeze-updates, previously known as ‘volatile’
deb http://ftp.caliu.cat/debian/ squeeze-updates main
deb-src http://ftp.caliu.cat/debian/ squeeze-updates main

 

Ahora tendremos;

deb http://SERVIDOR_INTERNO/debian/ squeeze main
deb-src http://SERVIDOR_INTERNO/debian/ squeeze main

deb http://SERVIDOR_INTERNO/ squeeze/updates main
deb-src http://SERVIDOR_INTERNO/ squeeze/updates main

# squeeze-updates, previously known as ‘volatile’
deb http://SERVIDOR_INTERNO/debian/ squeeze-updates main
deb-src http://SERVIDOR_INTERNO/debian/ squeeze-updates main

 

 

VMWare Tools en Debian Squeeze

Vamos a simplificar, si queremos instalar las VMWare Tools en una Debian Squeeze;

 vi /etc/apt/sources.list

añadimos;

deb http://ftp.es.debian.org/debian/ squeeze main contrib

deb-src http://ftp.es.debian.org/debian/ squeeze main contrib

Ejecutamos;

apt-get update 

apt-get install open-vm-tools open-vm-source 

module-assistant auto-install open-vm -i

 

Listo 😉

OpenVPN netsh command failed: returned error code 1

Estoy preparando el manual de instalación de OpenVPN en Debian Squeeze y al finalizar todo el proceso solo me quedaba realizar la primera conexión pero me he encontrado una sorpresa. En el caso de OpenVPN 1.0.3 para Windows (en este caso Windows 7) nos aparece un error al realizar la conexión;

TAP-WIN32 device [LAN1] opened: \.Global{42DD2F8F-045C-4FA3-A56F-9289645100D6}.tap
NETSH: C:WINDOWSsystem32netsh.exe interface ip set address LAN1 dhcp
ERROR: netsh command failed: returned error code 1
NETSH: C:WINDOWSsystem32netsh.exe interface ip set address LAN1 dhcp
ERROR: netsh command failed: returned error code 1
NETSH: C:WINDOWSsystem32netsh.exe interface ip set address LAN1 dhcp
ERROR: netsh command failed: returned error code 1
NETSH: C:WINDOWSsystem32netsh.exe interface ip set address LAN1 dhcp
ERROR: netsh command failed: returned error code 1
NETSH: command failed
Exiting

En este caso (netsh Command failed: returned error code 1) tenemos una solución simple.

En el fichero de configuración del cliente introducimos el siguiente comando

script-security 2 system

Con esto conseguiremos una conexión normal

Para una explicación de los motivos oficiales, mirad en el siguiente enlace

 

Nagios 3.2.3 + Nagios Theme + Cacti en Debian 6 Squeeze

Nagios

Instalamos Apache, PHP y librerias;
 
apt-get install apache2 libapache2-mod-php5 build-essential php5 libgd-graph-perl postfix
 
Creamos los usuarios y grupos;
 
/usr/sbin/useradd -m -s /bin/bash nagios
passwd nagios
/usr/sbin/groupadd nagcmd
/usr/sbin/usermod -a -G nagcmd nagios
/usr/sbin/usermod -a -G nagcmd www-data
 
Descargamos el software de Nagiosmkdir ~/downloads
 
mkdir ~/downloads
cd ~/downloads
Compilamos e instalamos el software
 
tar xzf nagios-3.2.3.tar.gz
cd nagios-3.2.3
./configure –with-command-group=nagcmd
make all
make install
make install-init
make install-config
make install-commandmode
 
Editamos el fichero de contactos modificando el email definido actualmente por el nuestro;
 
vim /usr/local/nagios/etc/objects/contacts.cfg
 
define contact{
contact_name     nagiosadmin             ; Short name of user
use                generic-contact         ; Inherit default values from generic-contact template (defined above)
alias              Nagios Admin            ; Full name of user
email             nagios@osties.com ; <<***** CHANGE THIS TO YOUR EMAIL ADDRESS ******
}
Seguimos con la instalación;
 
make install-webconf
htpasswd -c /usr/local/nagios/etc/htpasswd.users nagiosadmin
/etc/init.d/apache2 reload
cd ~/downloads
tar xzf nagios-plugins-1.4.11.tar.gz
cd nagios-plugins-1.4.11
./configure –with-nagios-user=nagios –with-nagios-group=nagios
make
make install
 
Lo configuramos para iniciarse con el sistema;
 
ln -s /etc/init.d/nagios /etc/rcS.d/S99nagios
 
El siguiente comando se utuliza para ver si el nagios (binario) funciona correctamente con el nagios.cfg (similar al apache2ctl -t en Apache) Asi veremos si funcionan nuestras modificaciiones
 
/usr/local/nagios/bin/nagios -v /usr/local/nagios/etc/nagios.cfg
/etc/init.d/nagios start
 
Ya podemos acceder a nuestro servidor http://pre.osties.com/nagios/ User:nagiosadmin
Una virtud de Nagios no es su entorno grafico. Por eso vamos a modificarle el frontend.
cd ~/downloads
unzip vautour_style.zip -d ./vautour
cp -Rfa /usr/local/nagios/share /usr/local/nagios/share_OLD
cp -Rfa vautour/* /usr/local/nagios/share/
 
Ahora ya tenemos un Nagios mas “visible”.

CACTI:

En el caso del cacti, el procedimiento es el mismo que en Debian 5 Lenny. Dejo aqui el mismo procedimiento que ya colgue en su dia para Debian 5.
apt-get install mysql-server rrdtool snmp
 
Activaremos la extensión para el SNMP añadiendo la siguientes lineas;
 
 
vim /etc/php5/conf.d/snmp.ini
 
; Enable snmp extension module
 
extension=snmp.so
file_uploads = On
vim /etc/apache2/mods-enabled/php5.conf (Añadimos o modificamos los siguientes campos)
 
# PHP is an HTML-embedded scripting language which attempts to make it
 # easy for developers to write dynamically generated webpages.
 
LoadModule php5_module modules/libphp5.so
 
# Cause the PHP interpreter to handle files with a .php extension.
 
AddHandler php5-script .php
 AddType text/html .php
 # Add index.php to the list of files that will be served as director
# indexes.
 
DirectoryIndex index.php
 
vim /etc/apache2/httpd.conf
 
Include conf.d/*.conf
Vamos  a preparar la MySQL para la instalación de CACTI;
 
 
mysqladmin -u root –p create cacti
cd /tmp
tar xzvf cacti-0.8.7g.tar.gz
mv cacti-0.8.7g/var/www/cacti
cd /var/www/cacti/
mysql -u root -p cacti < cacti.sql
adduser cacti
mysql -u root -p mysql
mysql> GRANT ALL ON cacti.* TO cacti@localhost IDENTIFIED BY ’somepassword’;
 
mysql> flush privileges;
 mysql> quit
 
 
Agregamos las siguientes lineas;
 
 
vim include/config.php
$database_type = “mysql”;
 $database_default = “cacti”;
 $database_hostname = “localhost”;
 $database_username = “cacti”;
 $database_password = “cacti”;
Con los passwords que hemos puesto y el usuario que toca.
chown -R cacti log
chown -R cacti rra
Agregamos;
vim /etc/crontab
*/5 *   * * *   cacti   php /var/www/cacti/poller.php > /dev/null 2>&1
Nos conectamos con http://pre.osties.com/cacti y pulsamos Next 2 veces y Finish
Cacti
Cacti
Cacti Resumen Instalación
Cacti Login
Nos logamos como Admin y passwd : admin. Luego cambiamos el password y ya podremos añadir los hosts
Ya tenemos nuestro entorno de gráficas ;)
Cacti Inside