La Unión Europea se encuentra en un punto de inflexión histórico con la tramitación de la polémica Regulación para Prevenir y Combatir el Abuso Sexual Infantil (CSAR), conocida popularmente como “Ley Chat” o Chat Control. Lo que comenzó como una iniciativa loable para proteger a los menores en el entorno digital, se ha convertido en una de las batallas legales más feroces de la década, enfrentando la seguridad nacional contra el derecho fundamental a la privacidad.
¿En qué consiste la Ley Chat?
La propuesta busca obligar a las empresas tecnológicas (como WhatsApp, Signal o Telegram) a escanear de forma automatizada todos los mensajes privados, fotos y vídeos de los usuarios en busca de material ilegal.
Vigilancia Predictiva: No solo se busca contenido ya conocido, sino que se pretende usar IA para detectar “patrones sospechosos” y prevenir el grooming.
El fin del cifrado: Para que este escaneo sea posible, las plataformas deberían debilitar o eliminar el cifrado de extremo a extremo, la tecnología que garantiza que solo emisor y receptor lean el mensaje.
Estado de la situación en 2026
Tras años de bloqueo y una prórroga de las normas voluntarias actuales hasta abril de 2026, el debate ha llegado a su punto más crítico bajo las recientes presidencias del Consejo de la UE:
- Presidencia Danesa (Finales de 2025): Intentó reactivar el proyecto con una versión “light” que priorizaba el escaneo de imágenes y enlaces, dejando el texto y la voz para una fase posterior.
- Acuerdo en el Consejo: A finales de 2025, se alcanzó un consenso preliminar en el Consejo, pero la oposición de países como Alemania, Austria y Polonia, sumada a la presión de grupos civiles, mantiene la incertidumbre sobre el texto final que debe ser ratificado por el Parlamento Europeo.
El dilema: Seguridad vs. Privacidad

“No se trata de elegir entre proteger niños o proteger la privacidad; se trata de asegurar que las medidas sean proporcionadas y no creen una infraestructura de vigilancia masiva permanente”. — Opinión de expertos en derechos digitales.
| Postura a Favor | Postura en Contra |
| Protección Infantil: Herramientas necesarias para detener la difusión de material de abuso. | Vigilancia Masiva: Convierte cada dispositivo en una herramienta de espionaje estatal. |
| Responsabilidad: Las Big Tech deben colaborar activamente en la seguridad pública. | Inseguridad Técnica: Crear “puertas traseras” facilita el acceso a hackers y regímenes autoritarios. |
| Prevención: La IA puede detectar abusos antes de que ocurran mediante patrones. | Fuga de Empresas: Signal y otras apps han amenazado con abandonar el mercado europeo. |

¿Qué sigue?
El 2026 será el año definitivo. Si el Parlamento Europeo no introduce salvaguardas estrictas para el cifrado, Europa podría pasar de ser el referente mundial en protección de datos (gracias al RGPD) a convertirse en un modelo de monitoreo digital generalizado. Las plataformas tendrán que decidir: cumplir con la ley degradando su seguridad o retirarse de la Unión Europea.
Prórroga de la normativa provisional hasta 2026-2028
Para evitar un vacío legal mientras se negocia el texto definitivo, la UE ha prorrogado la normativa interina (que permite el escaneo voluntario por parte de las tecnológicas) hasta el 3 de abril de 2026. No obstante, debido a que las negociaciones permanentes aún no han concluido del todo, la Comisión Europea propuso en diciembre de 2025 una nueva extensión de este régimen voluntario hasta abril de 2028.
Próximos pasos en 2026: Los Triálogos
Con la posición del Consejo ya definida, el proceso entra ahora en la fase de “triálogos”. En esta etapa:
Representantes del Parlamento Europeo, el Consejo y la Comisión negociarán la versión final del reglamento.
El Parlamento ha mantenido históricamente una postura más firme en la protección del cifrado, por lo que el debate en 2026 se centrará en equilibrar la seguridad infantil sin comprometer la privacidad digital.
Jueves 22 de enero de 2026

