Las principales empresas de comunicación de Canadá anunciaron este 29 de noviembre que presentaron una demanda contra OpenAI por utilizar sus contenidos sin autorización para mejorar su modelo de inteligencia artificial ChatGPT. La demanda fue presentada por Torstar, Postmedia, The Globe and Mail, The Canadian Press y CBC/Radio-Canada.
ÚNETE A NUESTRO CANAL DE WHATSAPP. EL PODER DE LA INFORMACIÓN EN LA PALMA DE TU MANO
Las cinco empresas señalaron en un comunicado que "de forma regular, OpenAI viola los derechos de autor y las condiciones de uso en línea al recopilar grandes cantidades de contenidos de los medios canadienses para ayudar a desarrollar sus productos, como ChatGPT".
Te podría interesar
"OpenAI está haciendo dinero y beneficiándose del uso de este contenido sin obtener el permiso o compensar a los propietarios del contenido", añadieron.
SÍGUENOS EN EL SHOWCASE DE GOOGLE NEWS
La demanda, presentada el jueves en los tribunales canadienses, indica que OpenAI se ha "enriquecido de forma injusta" a costa de los medios de comunicación y que los contenidos "obtenidos ilícitamente" por la empresa son "el producto de grandes cantidades de tiempo, esfuerzo y coste" por parte de los medios de comunicación y sus periodistas.
Las compañías canadienses solicitan a los tribunales que impidan a OpenAI seguir utilizando sus contenidos y que les compense económicamente.
Regulación de la Inteligencia Artificial
La Inteligencia Artificial (IA) ha experimentado un auge notable en los últimos años, impulsada por aplicaciones accesibles como ChatGPT, que han generado un crecimiento exponencial en el número de usuarios. Sin embargo, este rápido avance ha traído consigo importantes cuestionamientos sobre sus posibles sesgos, autonomía en la toma de decisiones y su impacto en la privacidad, seguridad y derechos humanos.
Aunque la IA ofrece beneficios claros en sectores como salud, educación y agricultura, su implementación masiva plantea riesgos en aplicaciones críticas como los vehículos autónomos y el manejo de información sensible. Por ello, expertos llaman a establecer marcos regulatorios que clasifiquen y supervisen estas tecnologías según el nivel de riesgo para garantizar su uso ético y seguro.
En este contexto, el Parlamento Europeo aprobó un proyecto pionero para regular la IA, que podría entrar en vigor en 2026. La normativa prohíbe prácticas como la manipulación de personas vulnerables, la clasificación social y el uso de sistemas biométricos en tiempo real, salvo en casos de delitos graves. En México, una iniciativa similar presentada en 2023 busca crear el Consejo Mexicano de Ética para normar estas tecnologías.
Los incidentes relacionados con la IA han aumentado significativamente. Según el Repositorio de Controversias de la IA (AIAAIC), los reportes de problemas se multiplicaron por 26 entre 2012 y 2021, destacando casos como la difusión de videos falsos para manipular información política. Estas preocupaciones subrayan la necesidad urgente de controles más estrictos.
Otro punto crítico es la recopilación y uso de datos, que plantea desafíos relacionados con la privacidad, la propiedad intelectual y el desplazamiento laboral. Asimismo, los sesgos y discriminación inherentes a algunos algoritmos refuerzan la importancia de desarrollar sistemas más inclusivos y transparentes.
A nivel internacional, organismos como la OCDE, donde México ocupa la vicepresidencia del Grupo de Gobernanza de la IA, trabajan para abordar estos desafíos. Mientras tanto, tecnologías emergentes como la IA generativa siguen mostrando su capacidad para transformar actividades humanas, lo que aumenta la necesidad de un enfoque ético y colaborativo.
En el país, se requieren debates serios sobre el papel que México quiere desempeñar en el desarrollo de la IA. ¿Debería priorizarse el aprovechamiento de sus beneficios económicos o enfocarse en mitigar los riesgos asociados? Este diálogo es crucial para definir objetivos y responsabilidades.
La inversión en infraestructura, bases de datos de calidad y formación de profesionales es esencial para construir un ecosistema sostenible de IA. Además, la colaboración entre centros de investigación, empresas, gobierno y sociedad civil es clave para resolver los desafíos éticos y sociales que plantea esta tecnología.
Si bien el balance entre los beneficios y riesgos de la IA sigue siendo positivo, la confianza en estas tecnologías está a prueba. Solo mediante una regulación adecuada y una visión conjunta, México podrá maximizar el potencial transformador de la IA y garantizar su impacto positivo en la sociedad.