Header Ads

Precisión vs Marketing

Hace muchísimo tiempo atrás, cuando Squid-Cache reinaba en oficinas, colegios, cabinas de internet y servidores caseros, existía un ecosistema vibrante de herramientas creadas por la comunidad para analizar, monitorear y domar al famoso proxy.
La Era Dorada de Squid
En los años 2000 y principios de los 2010, Squid era absolutamente crítico en la infraestructura de red. El ancho de banda era escaso y costoso, especialmente en América Latina. Las corporaciones necesitaban caché para optimizar la experiencia de usuario, los colegios requerían control de acceso para filtrar contenido, y los cybercafés dependían de Squid para maximizar su rentabilidad. No era un lujo: era una necesidad técnica y económica, y fue así como se convirtió en guardián silencioso de miles de redes alrededor del mundo.
El Ecosistema que Floreció
Con ese imperio de Squid vino una explosión de herramientas artesanales: scripts, parsers, generadores de reportes. Programadores independientes creaban utilidades para responder preguntas vitales: ¿quién consume más ancho de banda? ¿Qué dominios visitamos? ¿Está el cache funcionando correctamente? Estas herramientas eran simples, enfocadas, y funcionaban. Algunos desarrolladores ganaban reputación en foros, listas de correo y SourceForge por mantener el código que otros necesitaban.
Pero, con el paso de los años, estos proyectos legendarios comenzaron a desvanecerse, sin despedidas formales, sin releases finale; simplemente dejaron de actualizarse. Entre ellos, auténticas joyas como:
  • SARG (Squid Analysis Report Generator): Reportes HTML claros y detallados generados a partir del access.log; quién navegó, qué visitó, cuánto consumió y qué bloqueó Squid. Fue el estándar de facto durante años. No está oficialmente E.P.D., pero parece un zombie. Su última actualización registrada fue en marzo de 2022, pero continúa vivo en los repositorios Debian/Ubuntu.
  • LightSquid (E.P.D. 2009): Un analizador ligero en Perl/CGI que convertía el access.log en reportes rápidos por usuario o IP. Instalación fácil, interfaz sencilla… y un abandono silencioso que lo dejó detenido en el tiempo.
  • Calamaris (E.P.D. desconocido, pero muy antiguo): Un clásico escrito en Perl, capaz de extraer estadísticas técnicas bellamente detalladas: métodos HTTP, dominios, picos de tráfico, tipos de contenido. Quedó congelado en sus últimas versiones, convertido en fósil digital.
  • SqStat (E.P.D. 2006): Monitor en tiempo real usando cachemgr, mostrando conexiones activas, URLs solicitadas y usuarios conectados. Una de las pocas herramientas "live" para Squid. Su código se detuvo abruptamente y nunca volvió a actualizarse.
  • Webalizer de Bradford L. Barrett: Herramienta escrita en C para analizar logs web y de proxy, incluyendo los de Squid, y generar reportes HTML con estadísticas por visitas, referencias, países y volumen de datos. Su desarrollo principal se detuvo el 26 de agosto de 2013 con la versión 2.23-08, aunque existen forks activos mantenidos por otros desarrolladores.
  • Webalizer-Squid: Un conjunto de parches y configuraciones para adaptar Webalizer específicamente a los logs de Squid. Permitía generar estadísticas más útiles que las del Webalizer estándar. Dejó de actualizarse cuando Webalizer empezó a decaer.
  • squid-rrd (E.P.D. desconocido): Script que recogía datos de Squid (connections, hits, cache, throughput) y los volcaba a gráficas RRD tipo MRTG. Muy popular en la era de Cacti/Nagios. La web original desapareció y no se ven actualizaciones desde hace más de una década.
  • Squidview (E.P.D. 2017): Programa para ver logs de Squid en tiempo real desde consola. Mostraba URL, IP, códigos HTTP y tamaños.
  • SquidAnalyzer (E.P.D. 2017): Analizador de logs en Perl que generaba estadísticas en HTML, enfocado en tráfico, usuarios y dominios. El desarrollo oficial se detuvo en 2017, aunque recibió actualizaciones puntuales a través de repositorios de terceros.
  • sqtop (E.P.D. 2015): Parecido a un "top" para Squid que nunca pasó de versiones muy tempranas y quedó abandonado.
  • Otros proyectos perdidos en el tiempo: Muchos otros son tan viejos que ya no hay referencias oficiales, como Proxy-Analyzer o ProxyAnalyzer, PySquid (murió con Python 2), quanalyzer (Squid Quantitative Analyzer), Squeezer (un generador de reportes minimalista para Squid, hecho en Perl), Squid Accounting Tool (SAT), una herramienta para contabilizar tráfico por usuario/IP a partir de los logs que desapareció junto con su sitio y repositorio, etcétera.
¿Por qué murió el ecosistema?
La muerte no fue repentina. Fue una lenta asfixia causada por cambios inevitables en la tecnología: El surgimiento de las CDNs modernas (Cloudflare, Akamai, Fastly) hizo que el caché local fuera menos necesario. Las grandes corporaciones migraron su contenido a infraestructuras globales distribuidas. El ancho de banda se volvió más barato y accesible. Los hogares comenzaron a tener conexiones Mbps de 10, 20, 100..., suficientes para no necesitar un proxy lo optimizara. Pero el golpe más duro vino de HTTPS y TLS. Con la adopción casi universal de conexiones cifradas, Squid ya no podía inspeccionar el contenido de manera transparente, analizar URLs o aplicar filtros granulares como lo hacía antes. Muchas de las métricas que generaban estas herramientas se volvieron opacas. Las estadísticas dejaron de ser confiables. El valor que ofrecían se desvaneció, y, aunque comenzó a soportar HTTPs, ya fue demasiado tarde. La migración masiva a soluciones en la nube y la proliferación de webapps "todo en uno" en lenguajes modernos (Go, Rust, Python 3) dejaron a Squid como una reliquia del pasado: poderoso, estable, pero anticuado. Entoces surgió la pregunta: ¿Para qué mantener un analizador de Squid si ya nadie usa Squid?. Y fue así como el ecosistema se vino abajo.
Lo que quedó
Aquí yace la ironía: Squid como software base sigue vivo. Recibe actualizaciones regulares en 2024 y 2025. La última versión es Squid 6.x con mejoras de seguridad y rendimiento. Pero su ecosistema —ese magnífico conjunto de herramientas que lo rodeaba— murió sin que nadie lo notara. Mientras tanto, herramientas modernas asumieron los roles:
  • GoAccess: Análisis de logs en tiempo real, moderno, escrito en C, funciona con cualquier formato de log
  • ELK Stack (Elasticsearch, Logstash, Kibana): Solución empresarial para ingestión masiva de logs
  • Graylog: Alternativa a ELK, más ligera, más enfocada
  • Prometheus + Grafana: Monitoreo y visualización de métricas en tiempo real
Pero estas herramientas son agnósticas respecto a la fuente de logs. No necesitan código específico para Squid. Funcionan con cualquier cosa que genere eventos. 
La Nostalgia de lo Perdido
Lo más melancólico es que muchas de estas herramientas asesinadas eran brillantes en su simpleza. SARG generaba reportes HTML con un simple script; Calamaris extraía estadísticas en cuestión de segundos; LightSquid se instalaba y configuraba en menos de 5 minutos, Sqstat ofrecía el tráfico en tiempo real. Eran eficientes, respetuosas con los recursos, y hacían exactamente lo que prometían. La comunidad open source que las creó ni siquiera se despidió. No hubo previo aviso, ni migración ordenada de usuarios hacia alternativas. Los desarrolladores simplemente desaparecieron —hacia empleos corporativos, hacia otros proyectos, hacia el retiro, hacia el más allá...— dejando un reguero de cadáveres digitales en SourceForge o en cualquier otro repositorio. 
Es un recordatorio amargo: en el software libre, la mortalidad no siempre es anunciada. A veces, simplemente sucede. Llama a la puerta un día y se da cuenta de que nadie ha actualizado el código en 15 años.
Squid en la Actualidad: La Supervivencia por Razones Económicas
Squid no desapareció por completo. Sigue siendo utilizado, pero en escenarios muy específicos y con un propósito muy diferente al original. 
En pequeñas y medianas empresas, Squid continúa vigente principalmente como filtro de tráfico y no como optimizador de ancho de banda, y la razón es puramente económica.
La mayoría de los routers comerciales en el mercado actual (Mikrotik, Ubiquiti, Cisco, etc.) filtran o por firewall o por DNS, pero este filtrado es lento y poco granular. No pueden inspeccionar contenido real, no pueden detectar patrones dentro de una conexión, no pueden bloquear de manera precisa y contextual. Un proxy como Squid, en cambio, inspecciona cada petición HTTP/HTTPS en detalle: puede bloquear un sitio específico, una palabra clave dentro de un dominio, un tipo de contenido particular. Es miles de veces más rápido y preciso.  La ecuación es simple:
  • Router con capacidad IDS/IPS = fuera del alcance de PYMES
  • Router con firewall básico = barato, pero limitado (lo que usa la mayoría)
  • Router con capacidad de proxy = solo para ricos y grandes presupuestos corporativos
  • Squid = gratis y tan capaz como todos los anteriores
Y esa es precisamente la razón —a nuestro juicio— del porqué Squid sigue vivo. Ningún hardware y software lo ha podido superar en ese aspecto. Es gratis, de código abierto, ofrece granularidad real, y funciona con máquinas recicladas. Para una PYME que necesita filtrado profesional y no tiene presupuesto para hardware dedicado, Squid es prácticamente imbatible. Es difícil competir contra eso, pero, paradójicamente, miles de PYMES en América Latina y Norteamérica invierten decenas de miles de dólares en firewalls y soluciones DNS "premium", y la gran mayoría desconoce que con un servidor viejo y cero inversión pueden implementar un filtrado técnicamente superior a todo lo que pagaron.
El Poder del Marketing
A las empresas le han vendido humo y les ha entrado hasta por donde no les da el Sol. Prefieren pagar por interfaces bonitas, llena de gráficas coloridas que por precisión real. Ahí radica el poder del marketing y su slogan: "mejorar la experiencia del usuario", lo que se traduce en "alimentar a su hambriento sistema de publicidad con toneladas de metadatos y telemetría invasiva"... Y si el software es diseñado en China, mucho peor, ya que le aplica la Ley de Inteligencia Nacional de 2017 de esa nación, que obliga a todas las organizaciones y ciudadanos a "apoyar, ayudar y cooperar con el esfuerzo de inteligencia nacional", o sea, a entregarle los datos a ese gobierno, sí o sí.
Squid representa la solución que nadie busca, pero que todos necesitarían si supieran que existe. Sin embargo, incluso este último bastión está bajo asedio. 
Nuevas tecnologías están desplazando lentamente a Squid también del mercado PYME: los portales cautivos (con sus hotspot) y los filtros DNS (OpenDNS, Pi-hole, Adguard, NxFilter, etc.) han ganado terreno exponencialmente, no porque sean técnicamente superiores —de hecho, son profundamente inferiores—, sino por una razón completamente superficial pero determinante: interfaz de usuario amigable y estadísticas atractivas.
Pero ¿cómo funcionan exactamente estos filtros DNS?.
Simple: interceptan las consultas DNS de la red e impiden que se resuelvan dominios bloqueados. Suena bien, pero en la práctica es brutalmente ineficiente y limitado, ya que:
- El filtrado por firewall o DNS es lento, poco granular e ineficiente.
- Esto ocurre porque no fueron creados para análisis profundo ni filtrado avanzado.
- Solo ven facebook.com → sí o no; no distinguen rutas, subdominios ni patrones complejos.
- Esta restricción es la misma en la mayoría de firewalls básicos de routers.
- Pero aun así la gente los usa, como si fueran un proxy y comienzan a filtrar sitios como si no hubiese un mañana, y su sistema a ralentizarse...
Un bucle infinito de limitaciones, porque simplemente no son aplicaciones diseñadas para filtrar, o sea, no son un proxy. Y es por eso que estas aplicaciones se limitan a incluir filtros AD (publicidad, métricas, etc.), que en eso sí se destacan, pero es algo que también puede hacer un proxy y mucho mejor.
Filtrado por DNS vs Firewall vs Proxy
Un proxy, como Squid-Cache sí fue diseñado para filtrar casi cualquier cosa que se les ocurra: inspecciona cada petición HTTP/HTTPS línea por línea, permite facebook.com/noticias/ pero bloquea facebook.com/adult/, filtra subdominios específicos, usa expresiones regulares, analiza encabezados, cookies, patrones de contenido y maneja en milisegundos listas negras con millones de líneas. Si no creen, intenten cargar las listas negras BlackwebBlacklists UT1 en un router Mikrotik o Pi-hole y verán cómo su sistema colapsa.
Es precisión quirúrgica versus marketing... Es operar con bisturí versus con un machete.  
Pero toda esa potencia técnica, es invisible para quien mira una moderna interfaz; un dashboard, con métricas llamativas y relucientes, al estilo de powerpoint, es más persuasiva para un gerente que la línea de comandos para administrar Squid. 
Los filtros DNS  o los routers son más simples de instalar y configurar, requieren menos conocimiento técnico, y sus interfaces vistosas hacen que las organizaciones crean que tienen una solución "mágica", cuando en realidad están sacrificando precisión, velocidad y control por comodidad estética.
Squid sigue vivo, pero en las sombras. Potente, eficiente, pero invisible para los nuevos administradores de sistemas informáticos y redes; invisible para los que toman decisiones de presupuesto; invisible para la industria que lo reemplaza con alternativas más "amigables" pero técnicamente inferiores. Un fantasma útil que sigue cumpliendo su trabajo silenciosamente en servidores remotos de oficinas en provincias, mientras la tecnología avanza hacia soluciones que priorizan la experiencia del usuario sobre la eficiencia técnica.
Supervivientes
Afortunadamente, la masacre no terminó con todo el ecosistema. El que una vez fue el todo poderoso Webmin, y que muchos daban por muerto, reemplazándolo con Cockpit, Ajenti, aaPanel o ISPConfig y otras alternativas más atractivas, sigue vivo y coleando, y mantiene módulos dedicados expresamente a la administración de Squid. 
También sobrevivió SquidStats, un excelente proyecto para el manejo de estadísticas de Squid, con un gran equipo de desarrollo detrás, pero, desafortunadamente, apenas sobrevive y tiene escasas visitas en github.
Y para el resto del ecosistema, el reinado terminó. SARG, LightSquid, Calamaris y sus hermanos yacen en el cementerio digital, esperando a un historiador de la tecnología que algún día cuente sus historias.
La Resurrección: Proxy Monitor
Proxy Monitor
Pero la historia no termina aquí. Nosotros nos negamos a dejar morir estas leyendas. Por eso creamos Proxy Monitor; una aplicación web open source, que resucita cuatro de estos fantasmas, devolviéndolos a la vida: LightSquid, SqStat, SARG, SquidAnalyzer + Squidmon, un módulo propio de nuestro portal + un script para el control del consumo de datos por cliente que trabaja con el set de datos de Lightsquid.
Proxy Monitor (Proxymon) integra estas herramientas clásicas en una interfaz web moderna, unificada y funcional. No es un dashboard con gráficos coloridos, diseñado para impresionar CEOs. Es algo mejor; es precisión recuperada; es funcionalidad que sobrevivió a la prueba del tiempo, ahora accesible de nuevo. Todas juntas, en un solo lugar, para facilidad de uso.
El proyecto está actualmente en fase beta, ya que estamos corrigiendo con IA el código de los módulos descontinuados, pero con la promesa de estabilidad próxima. Requiere solo Squid-Cache y Apache2. Lee el access.log de Squid y transforma esos datos en reportes detallados, estadísticas granulares, monitoreo en tiempo real y análisis profundo. Todo lo que las herramientas originales ofrecían, optimizado para los sistemas modernos.
Los administradores de sistemas que aún usan Squid —los que no fueron seducidos por dashboards bonitos ni interfaces de un clic— tienen ahora la oportunidad de dejar la pereza de lado. Retomen estas leyendas. Recuperen la precisión quirúrgica que el mercado abandonó. Descarguen Proxy Monitor, instálenlo en su servidor y devuelvan a la vida a estas joyas olvidadas. Porque, mientras el mundo elige interfaces deslumbrantes sobre eficiencia técnica, ustedes —los verdaderos sysadmins— pueden seguir eligiendo lo correcto. Squid sigue vivo. Sus herramientas también pueden estarlo.

Para mayor información visite Proxy Monitor.
Con la tecnología de Blogger.