Por Javier Surasky
Las grandes plataformas digitales instalaron una idea muy
conveniente para ellas: si algo dañino ocurría como consecuencia de su uso, la
responsabilidad era de los usuarios, en quienes publicaban contenidos, o, en
última instancia, en fallas específicas del sistema de moderación. Eso dejaba
fuera del debate a la plataforma misma. Esa narrativa ha llegado al inicio de
su fin.
El veredicto en el caso K.G.M. v. Meta Platforms, Inc., et
al., (K.G.M. vs Meta y Google/YouTube) dado en Los Ángeles el 25 de marzo de
2026, y que originalmente tenía entre los demandados también a TikTok y Snap,
quienes prefirieron salir del caso logrando acuerdos con la demandada antes del
juicio, desplaza la discusión desde qué es lo que circula en una red social
hacia cómo esa red está diseñada para captar, retener y moldear la conducta de
sus usuarios.
Un cambio de eje
Sin embargo, un jurado de Los Ángeles concluyó, con 10 votos
a favor sobre 12, que Meta y Google/YouTube fueron negligentes y fallaron en advertir
de manera adecuada los riesgos que implica el uso de sus plataformas, una
afirmación que hasta ahora alcanza a solo una persona de 20 años identificada
como K.G.M., pero que constituye lo que se llama un “caso testigo” (bellwether
case) que abre la puerta a más de 2000 reclamaciones ya presentadas ante la
justicia de los EE.UU., por lo que el peso de la decisión va más allá de una
demanda particular ya que tiene capacidad de orientar la dirección en la que se
solucionarán litigios futuros sobre jóvenes y redes sociales.
Hay un elemento que creemos de enorme valor e
insuficientemente tratado: el caso situó de
manera particular el hecho jurídico que produce el daño en la propia arquitectura
de la red.
El establecimiento de resarcimientos por USD 6 millones, 70%
a cargo de Meta y 30% a cargo de YouTube/Google, vale más por los criterios
aplicados que por su cuantía, que no es menor: el jurado entendió que la
conducta de ambas compañías fue un factor sustancial en la producción de un daño
psiquiátrico sufrido por la demandante, que la llevó a la adicción a las redes.
Esto rompe con una regla que hasta ahora había aparecido
como una muralla inexpugnable en reclamaciones contra redes sociales: la
Section 230, una norma interna de los EE.UU. que establece que las plataformas
digitales no son editoras del contenido publicado por terceros, y por lo tanto
no pueden ser tratadas como editoras, lo que resulta en una amplia protección
frente a responsabilidades por el material publicado.
Del contenido al diseño
Lo que hizo posible el cambio es que las firmas que
representaban a K.G.M (Beasley
Allen y The
Lanier) no fueron sobre los contenidos, sino sobre la arquitectura de las
redes y sus deberes de advertencia de riesgos, un cambio de enfoque con
consecuencias políticas amplias: si el problema no está solo en lo que los
usuarios suben o consumen, sino también en las funciones creadas para maximizar
permanencia, atención y engagement, las plataformas dejan de ser meros
intermediarios y son quienes establecen las arquitecturas de comportamiento de
los entornos de publicación de esos contenidos.
Se trató de una apuesta osada, ya que un consejero del
General Surgeon (cargo que no tiene par en muchos países: representa la mayor
autoridad federal de salud pública pero no equivale a un ministro de salud, ya
que cumple funciones no solo políticas, sino también científicas), en una
“opinión de consulta” sobre Social
Media and Youth Mental Health (2023) había destacado la falta de acceso a
datos y de transparencia por parte de las empresas tecnológicas dificulta
comprender el impacto de las redes sociales sobre la salud mental juvenil, lo
que vuelve más difícil evaluar riesgos, establecer causalidad y diseñar
respuestas regulatorias basadas en evidencia.
Aunque aún no se ha publicado públicamente el texto oficial completo
del special verdict form o de la sentencia final (estamos escribiendo
esto un día después de que se hayan dado a conocer) al menos seis fuentes como
prestigiosas (Reuters,
BBC, Deutsche
Welle, Associated
Press, The
Guardian, The
Washington Post, entre otras) aseguran que el jurado consideró encontró negligencia
y fallas de advertencia en ambas empresas, sosteniendo que estas contribuyeron
de modo sustancial a la producción del daño sufrido por K.G.M.
Posibles Impactos externos
Si bien se trata de un caso doméstico, y aunque las empresas
sancionadas ya dijeron que van a apelar la decisión, es de esperar que tenga
impactos internacionales por vía indirecta, ya que llega en un momento en que
varias jurisdicciones están buscando establecer esquemas de regulación más
exigentes de las plataformas sociales digitales. La Unión Europea publicó
directrices sobre protección de menores bajo la Digital Services Act. El Reino
Unido, mediante su Online Safety Act, ha desarrollado obligaciones específicas
para reducir riesgos de exposición de niños a daños en línea, Australia avanzó
con restricciones de edad para el uso de redes y exigencias sobre las
plataformas de prevención de riesgos estructurales. En ese marco, el veredicto
del caso que analizamos refuerza una tendencia global en ascenso que implica pasar
de una regulación centrada solo en contenidos a otra centrada en seguridad por
diseño.
Conclusiones: el escenario se renueva
Durante ya demasiado tiempo, la discusión pública sobre
plataformas digitales giró en torno a cuestiones de moderación, libertad de
expresión, desinformación y censura. Si bien todos ellos son temas de
relevancia, ahora se hará necesario desplazarse hacia una pregunta más
estructural: ¿Qué responsabilidad tienen quienes diseñan sistemas cuya
rentabilidad depende de producir hábitos de dependencia y exposición sostenida
a riesgos?
Haya o no apelación, y sea cual sea el resultado final de
este juicio, el caso de K.G.M contra Meta y YouTube/Google expone claramente
que el debate mundial sobre regulación y gobernanza de plataformas está ingresando
en una nueva etapa.
