¿Quién manda realmente en tu feed? El 23/10/2025, la Comisión Europea publicó una “vista preliminar” en la que apunta que TikTok y Meta podrían haber incumplido la Ley de Servicios Digitales (DSA) al no dar a investigadores acceso suficiente a datos públicos de sus plataformas. No es todavía una sanción, pero sí un paso formal dentro del procedimiento que puede acabar en multas de hasta el 6 % de la facturación mundial si se confirman los incumplimientos y no se corrigen.
La Comisión no está hablando de un detalle técnico, sino de algo muy concreto: que investigadores independientes puedan estudiar cómo se recomiendan contenidos, qué ven los menores y si hay diseños que fomentan el uso compulsivo. Sin datos, es casi imposible auditar si los algoritmos empujan a los usuarios hacia contenido extremo, si los sistemas de protección para menores funcionan o si la noche se llena de vídeos que enganchan justo cuando deberías estar durmiendo.
Por eso este movimiento importa para tu día a día, aunque no toques Bruselas ni de lejos. Más transparencia significa la posibilidad de feeds menos opacos, normas verificables y presión real sobre las plataformas para que mejoren seguridad infantil, gestionen mejor el tiempo en pantalla y reduzcan prácticas adictivas. No es magia instantánea, pero sí una palanca para que la conversación pase de “confía en nosotros” a “demuéstralo con datos”.
En su nota oficial, la Comisión habla de “constataciones preliminares de incumplimiento de obligaciones de transparencia” y recuerda el marco de sanciones del DSA. También explica que el objetivo es permitir que equipos de investigación analicen riesgos sistémicos —como la exposición de menores a contenido dañino— y evalúen si las medidas de mitigación que venden las plataformas funcionan de verdad o son solo marketing.
Ahora la pelota también está en tu tejado. ¿Te sentirías más tranquilo si un tercero pudiera auditar cómo tu feed prioriza ciertos contenidos por la noche, en lugar de fiarte solo del “para ti”? ¿Dejarías que la misma máquina que te distrae decida cuándo descansar, o prefieres marcar tú las ventanas sin pantallas y no depender del humor del algoritmo?
Piensa en tu rutina: ¿qué dos horas al día te conviene blindar para que ninguna app pueda “negociar” tu atención, ni estudiar tus hábitos en tiempo real? ¿Cuántos de tus bostezos nocturnos vienen realmente del cansancio… y cuántos de estar atrapado en scroll infinito porque la siguiente pieza de contenido siempre promete un mini premio más?
Cómo te ayuda Lockee:
Mientras Europa discute sobre transparencia de datos, tú puedes tomar una decisión mucho más inmediata: definir momentos del día en los que el algoritmo no tiene permiso para jugar con tu atención. Usa Lockee para crear un “modo estudio o descanso” sin feeds, bloqueando bloques de 45–90 minutos para trabajo profundo dos o tres veces al día, y una franja nocturna fija en la que el móvil se queda fuera del dormitorio.
Si tienes familia, podéis pactar cenas y pre-sueño sin móvil de 30–60 minutos, con Lockee como recordatorio físico de que esa franja no se negocia. Prueba un experimento A/B de 7+7 días: una semana con estas ventanas protegidas y otra sin ellas. Observa qué pasa con tu energía al despertar, la facilidad para conciliar el sueño y la cantidad de tareas importantes que consigues cerrar sin que TikTok, Reels o Shorts se cuelen por medio.
Fuente: European Commission — https://ec.europa.eu/commission/presscorner/detail/en/ip_25_2503 — 23/10/2025