Mientras permite alcohol y tabaco, el Gobierno quiere limitar ahora el azúcar en el café de edificios públicos
España estrena un nuevo capítulo en su particular manual del paternalismo moderno: el café de las máquinas de vending en edificios públicos deberá servirse sin azúcar por defecto, y quien quiera endulzarlo solo podrá añadir un sobre de 5 gramos como máximo. No dos. No al gusto. Uno. Por decreto.
La medida, impulsada por el Ministerio de Consumo bajo el paraguas del Gobierno de España, afecta a universidades, museos, bibliotecas, centros deportivos y demás espacios públicos. Oficialmente, el objetivo es “promover hábitos saludables” y reducir la ingesta de azúcar. El Estado ha decidido que tu café debe ser amargo. Y punto.
Del sobre de azúcar al ciudadano parametrizado: así se normaliza el control automático de decisiones cotidianas
Lo que hoy parece una anécdota —el café sin azúcar por defecto en máquinas de edificios públicos— es, en realidad, un síntoma mucho más profundo, no es solo una política sanitaria menor.
Es un experimento de gobernanza algorítmica en miniatura. Hoy es el café. Mañana será tu dieta. Pasado, tu movilidad. Después, tu consumo energético. Más tarde, tus hábitos financieros. Siempre “por tu bien”.
Del vending al ciudadano digital
Desde el punto de vista informático, la medida es reveladora: no se limita a informar al usuario, sino que reprograma el sistema para imponer un comportamiento por defecto. Eso tiene un nombre técnico claro: default enforcement.
No te prohíben el azúcar. Simplemente hacen que el sistema ya no lo ofrezca de forma natural. El patrón es idéntico al que usan las grandes plataformas digitales:
– Opciones preseleccionadas
– Fricción añadida para desviarse del camino marcado
– Decisiones “guiadas” por diseño
– Libertad formal, pero condicionada
Arquitectura de elección. Nudging. Ingeniería del comportamiento. Aplicado próximamente… al café.
Ayer monodosis obligatorias, hoy limitadas
El episodio roza lo cómico si no fuera serio. Durante la pandemia se impusieron monodosis obligatorias por motivos sanitarios: sobres individuales, envases sellados, nada compartido. Todo perfectamente protocolizado.
Hoy, esas mismas monodosis pasan a ser un problema. Primero el sistema se programa para forzarlas. Ahora se reprograma para restringirlas. Antes el negocio del ecologismo que nuestra salud.
Desde el punto de vista técnico, es exactamente lo mismo que ocurre en software mal gobernado: cambios de política sin trazabilidad, sin auditoría y sin asumir responsabilidades previas. Un día una feature es crítica. Al siguiente, es un bug. Y el usuario, siempre beta tester. El laboratorio perfecto: espacios públicos
No es casual que empiece en universidades, museos y edificios públicos. Son el entorno ideal:
– Infraestructura centralizada
– Usuarios cautivos
– Baja resistencia
– Implementación homogénea
– Recogida de métricas sencilla
Exactamente igual que un despliegue piloto.
Desde ingeniería de sistemas, esto es un proof of concept social.
Se prueba aceptación.
Se mide reacción.
Se ajusta narrativa.
Se escala.
Nada nuevo para quien entienda cómo funcionan los rollouts tecnológicos. Lo realmente inquietante es que el problema no es el azúcar. El problema es la normalización de que decisiones personales se trasladen al código.
Hoy una vending decide cuántos gramos puedes usar. Mañana un sistema decide qué comes. Pasado un algoritmo calcula tu perfil de riesgo. Después una IA asigna prioridades sanitarias, educativas o financieras.
Todo automatizado. Todo justificado por “optimización”. Todo presentado como progreso.
Mientras tanto, sustancias objetivamente mucho más dañinas —alcohol y tabaco— siguen legalmente intactas. Porque generan impuestos. Porque tienen industria detrás. Porque son políticamente incómodas. El azúcar del ciudadano medio, en cambio, es barato de regular.
Desde una perspectiva informática, esto no es una política alimentaria. Es un ensayo de gestión algorítmica del comportamiento humano. Se empieza por pequeños parámetros. Se continúa con hábitos. Se termina con perfiles.
No hace falta ciencia ficción. Solo observar cómo se reprograma una máquina de café. Porque cuando el sistema aprende a decidir por ti en lo trivial, ya está entrenado para hacerlo en lo importante. Y entonces sí: tu vida será simplemente otro flujo de datos.
Eso es ciberpolítica aplicada al cuerpo social — con nuevas tecnologías, con automatismos invisibles y con el mismo consentimiento acrítico con el que llevamos años pulsando “aceptar todas”.



