Por Carlos Cantero Ojeda, Geógrafo, Máster y Doctor en Sociología
- La gobernanza global de la Inteligencia Artificial (IA), los algoritmos y la Big Data, transitan desde la auto regulación y marcos éticos voluntarios hacia una arquitectura legal vinculante, observamos un giro hacia la protección de la autonomía humana frente a la opacidad ética digital o la impunidad.
Desde hace más de una década, en mis conferencias, libros y columnas de opinión, he dejado testimonio y denuncia, por dos procesos -principales y estratégicos- en la sociedad digital: a) la ruptura de los límites éticos, que plenos de opacidad valórica se transforman en amplios y difusos bordes de incertidumbre; y b) la manipulación o configuración de la subjetividad de la persona humana que, hasta ahora, se manejaba con discrecionalidad y amplia impunidad.
«Donde está la enfermedad, está el remedio», dice un refrán popular antiguo, que en este caso cobra plena vigencia. El 25 de marzo de 2026 en Los Ángeles, California, EE.UU, se emitió un fallo judicial histórico -para la humanidad- por sus consecuencias éticas. El precedente jurídico declaró responsables (culpables) a Meta (Instagram) y Google (YouTube) por contribuir a la adicción -a las redes sociales- de una menor de edad que comenzó a usarlas a los 6 y 9 años y, además, por los daños a su salud: depresión severa y dismorfia corporal. El fallo establece que Meta debe asumir el 70% de la responsabilidad y Google el 30%, estableciendo que el diseño de Instagram se demostró más agresivo en su capacidad de generar dependencia.
Los argumentos jurídicos del fallo son: Que la responsabilidad se fundamenta en la teoría legal del «diseño defectuoso», asumiendo que las empresas diseñaron deliberadamente sistemas para maximizar el tiempo de permanencia de los usuarios en las redes, sin tomar medidas suficientes para mitigar los efectos negativos de sus algoritmos. Se determinó que ambas compañías incurrieron en negligencia, priorizando el crecimiento y las métricas de retención por sobre la seguridad de los usuarios jóvenes, al no advertir adecuadamente sobre los riesgos de sus plataformas, utilizando funciones como el «scroll infinito», notificaciones constantes, amplificación algorítmica y segmentación conductual, diseñadas para fomentar la adicción y los ingresos de la industria. No son solo herramientas de diseño, sino mecanismos de reproducción automática, creados deliberadamente para explotar la vulnerabilidad del cerebro de la persona.
Este fallo, el primero de su tipo en EE.UU. constituye un importante precedente, históricamente la industria tecnológica se escudaba en leyes que la eximían de responsabilidad por el contenido que publicaban terceros. Sin embargo, este fallo se centra en el diseño del producto (el algoritmo y la interfaz), no en el contenido, lo que abre una vía legal para exigirlas como si fueran fabricantes de un producto defectuoso. Resulta muy evidente que este escenario impulsará regulaciones a nivel global, obligando a las compañías a considerar más seriamente las implicancias éticas de sus algoritmos. Lo dramático es que, a pesar de antiguas denuncias no se había avanzado en el ámbito político y es el ámbito judicial quien tiene el mérito de este logro relevante.
Por concepto de indemnizaciones se ordenó pagar 3 millones de dólares en daños compensatorios y otros 3 millones en daños punitivos.Se debe considerar que este fallo coincide con otro en Nuevo México, donde Meta fue condenada a pagar 375 millones de dólares por desatender la protección infantil frente a abusos en la red. De esta manera, las repercusiones para la Industria tecnológica son muy relevantes. Se establece un precedente para más de 2,000 demandas similares pendientes, solo en Estados Unidos.
Esta situación también constituye una señal respecto del denominado Colonialismo de Datos y el libertinaje de datos personales. Aunque el fallo se centra en la adicción, contribuirá a un mayor escrutinio sobre el uso y abuso de la explotación de los datos personales. Su captura requiere de Big Data en amplias poblaciones, muchas de las cuales denotan compulsión por la superficialidad, polarización binaria, auto exhibicionismo de su intimidad y datos personales asociados, materias que requieren ser abordadas ética y legalmente. La confirmación judicial que las empresas diseñan plataformas para maximizar permanencia y recopilación de datos, impulsará debates y regulaciones sobre la privacidad, el control y sentido propietario de los datos personales, que los usuarios tienen sobre su información, cuestionando el modelo de negocio basado en el libertinaje en el uso de los datos personales (burbujas de filtro), y la publicidad hipersegmentada (marketing): tales como la orientación sexual, información racial, el estado de salud, o creencias religiosas.
Este fallo marca el fin de la era de la autorregulación (y la impunidad) en el diseño algorítmico. Se asume que no son neutrales si generan adicción clínica probada, o daños a la salud mental, tal como ocurrió con la industria tabacalera en su momento de crisis. Es razonable, aunque no suficiente, el uso de las Etiquetas de Advertencia, para que las redes sociales incluyan avisos de salud mental, similar a las advertencias en las cajetillas de tabaco.
También hay un Cambio de Narrativa, al trasladar la culpa desde los padres (por «no vigilar a sus hijos») hacia las empresas (por diseñar algo imposible de resistir), con lo que se reconoce jurídicamente que el diseño es técnicamente superior a cualquier control parental promedio. En todo el mundo se comienzan a promover medidas preventivas, regulando el acceso y uso de las redes sociales en ciertos espacio y grupos etarios. Los ámbitos educativos han comenzado a regular el acceso a plataformas sociales a los menores. Toma fuerza el criterio de regulación ética digital que cautele la dignidad, subjetividad, libertad y salud de las personas.
Los neuro-derechos se incorporan al marco jurídico internacional de derechos humanos, para proteger el cerebro y su actividad, frente a los avances de las neuro-tecnologías y la inteligencia artificial. Se profundiza en la protección contra el acceso no autorizado a patrones neuronales y la garantía ante manipulaciones externas de la privacidad, salvaguardando la privacidad mental y el libre albedrío, ante posibles manipulaciones o accesos no consentidos de la identidad, imagen y los datos cerebrales.
Es deseable seguir fortaleciendo la soberanía y ética digital, el reconocimiento a marcos legales pioneros, a nivel global: el Reglamento de Inteligencia Artificial (RIA) en la Unión Europea, que clasifica los sistemas por su peligrosidad, prohibiendo aquellos que suponen una amenaza a los derechos fundamentales de las personas; el hito de Chile, es el primer país del mundo en incorporar los neuro-derechos en su Constitución Política (2021), en lo judicial (2023 )cuando la Corte Suprema estableció que el uso de datos neuronales requiere consentimiento explícito y revocable; y, su relevante Ley de Protección de Datos. A nivel Global se debe promover el concepto de una Gobernanza Ética, para el equilibrio entre la innovación tecnológica y la protección de la esencia humana, frente estas y otras amenazas como la denominada burbuja de filtro y algoritmos impropios, que manipulan la subjetividad de las personas sin su consentimiento. ¡Que así sea!
NOTA DE LA DIRECCIÓN: Las opiniones y conceptos expresados por los columnistas son de su exclusiva responsabilidad y no necesariamente representan la línea editorial de este medio de comunicación.







