Una de mis tareas de este fin de semana fue el de reorganizar mi entorno
de correo electrónico. Para leer el correo electrónico utilizo
mutt, configurado para leer el correo
electrónico de un servidor IMAP. Para enviar correo, tengo una
configuración mínima de exim que utiliza a su
vez a mi servidor de correo electrónico como retransmisor.
Mutt es un lector de correo electrónico excelente, pero es pésimo para
el manejo de IMAP. Además, empecé a necesitar de búsquedas por todo mi
correo electrónico. La solución para el primer problema es
offlineimap, un programa escrito en Python,
que sincroniza correos electrónicos entre dos lugares de almacenamiento.
Es decir, es capaz de descargar mi correo electrónico desde el servidor
IMAP y ponerlo en mi portátil, por lo que trabajo en mi correo
electrónico localmente, y si elimino un correo electrónico, offlineimap
lo eliminará del servidor en la siguiente sincronización.
La solución al segundo problema, la búsqueda, es
notmuch, que es un indexador de correo
electrónico, lo que permite realizar búsquedas rápidas entre una
colección inmensa de correo. Así que, una vez que llega correo nuevo (o
se elimina) con OfflineIMAP, notmuch los indexa (o los desindexa).
Sin embargo, otro problema se presentó: ¿cómo consultar a notmch de
forma integrada con mi lector de correo? Una solución es
mutt-ks, un fork de mutt con
soporte integrado para notmuch.
Pero yo uso Debian, y me gusta su gestión de paquetes. Así que
necesitaba para elaborar un paquete de Debian para mutt-kz.
Hace días escribí una entrada sobre como instalar y configurar el
Spamassassin, ya la gran mayoría sabemos que Spamassassin genera un log de
actividad y este log es un chorizón…
Si instalamos y configuramos el Spamassassin como lo recomienda la gran
mayoría y como yo mismo lo he publicado en mi blog, tendríamos un archivo
llamado spamd.log. Este archivo no es mas que un log de las actividades del
Spamassassin en cuanto a sus tareas de filtrar el correo electrónico en
nuestro servidor o equipo. La verdad es que con el tiempo este archivo crece y
crece y analizarlo manualmente se vuelve un poco complicado.
Buscando alguna solución ya elaboradas encontré muchos generadores de reportes
gráficamente en PHP pero no es lo que yo buscaba.
Mis necesidades son básicamente saber la fecha y hora en que el Spamassassin
identificó un correo SPAM e identificar rápidamente el dominio de donde salió,
así como la dirección IP de ese dominio.
Necesidades muy especificas que no me las daba alguna herramienta ya existente.
Entonces decidí escribir un pequeño script a manera de analizador para
“analizar” el log del Spamassassin (spamd.log) y extraer dicha información y
poder consultarla en pantalla.
Después de varios años de haber tenido nuestro servidor en el Instituto
Tecnológico de Celaya (a quienes agradecemos muchísimo su generosiad y
paciencia) nos hemos mudado a un servicio de hosteo (xpress.com.mx).
El pago por el hosteo de un año fue patrocinado por Juan José Salgado y
por Pedro Sánchez.
Esperamos ahora mantener un uptime tan alto como solíamos tener.
Ahora sigue levantar nuestro nivel de participación para que el GLiB
siga vigente.