Este año se ha hablado mucho del ChatGPT y la inteligencia artificial. En química se puede replicar la receta y hasta producirlo con un sistema de inteligencia artificial. Pero también, en manos peligrosas, puede replicar drogas y armas químicas. En manos de Vladimir Putin o el líder Norcoreano Kim Jong-un podría hacer que la llamada guerra fría 2.0 escale a niveles insospechados. Un artículo publicado en Foreign Affairs titulado “Cómo prevenir una catástrofe de inteligencia artificial” escrito por Markus Anderljung y Paul Scharre, director de Políticas del Centro para la Gobernanza de la Inteligencia artificial y miembro adjunto del Centro para una Nueva Seguridad Estadounidense, y vicepresidente ejecutivo y director de estudios del Center for a New American Security y autor de Four Battlegrounds: Power in the Age of Artificial Intelligence, respectivamente, advierte que “después de exageraciones, comienzos en falso y promesas exageradas, la revolución de la inteligencia artificial está aquí. Desde el reconocimiento facial hasta la generación de texto, los modelos de Inteligencia artificial están arrasando en la sociedad. Están escribiendo texto para empresas de servicio al cliente. Están ayudando a los estudiantes a investigar. Están ampliando los límites de la ciencia, desde el descubrimiento de fármacos hasta la fusión nuclear”.
Más allá de sus bondades, la inteligencia artificial también propaga desinformación, fomenta la discriminación y facilitando el espionaje de los estados y las empresas. Los futuros sistemas de inteligencia artificial podrían crear patógenos o piratear infraestructuras críticas. De hecho, los mismos científicos responsables del desarrollo de la inteligencia artificial han comenzado a advertir que sus creaciones son profundamente peligrosas. En una carta de mayo, los jefes de casi todos los laboratorios líderes de inteligencia artificial advirtieron que “mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Para manejar los peligros, algunos expertos han pedido una pausa en el desarrollo de los sistemas de Inteligencia artificial más avanzados. Sin embargo, las empresas desarrolladoras no están interesadas en frenar sus investigaciones. De acuerdo con los especialistas del artículo de Foreign Affairs, una ruta interesante puede ser controlando el acceso a quiénes pueden interactuar con los chips avanzados que entrenan los principales modelos de inteligencia artificial, y los gobiernos también deben establecer regulaciones para garantizar que la inteligencia artificial se desarrolle de manera responsable.
Te podría interesar
Markus Anderljung y Paul Scharre resaltan que los estados tendrán que educar a la sociedad contra los muchos peligros de la inteligencia artificial. Tendrán que invertir en una amplia variedad de protecciones, ayudar a los científicos a identificar y detener los ataques de laboratorio y la creación de patógenos sintéticos, desarrollar herramientas de seguridad cibernética que mantengan infraestructura crítica, como centrales eléctricas, en las manos adecuadas.
“Tendrán que descubrir cómo se puede usar la propia inteligencia artificial para protegerse contra los peligrosos sistemas de inteligencia artificial”, citan en el artículo.
¿Qué tan peligrosa es la inteligencia artificial?
Para los autores, Markus Anderljung y Paul Scharre la respuesta honesta y aterradora es que nadie lo sabe. Las tecnologías de Inteligencia artificial tienen una amplia y creciente gama de aplicaciones, y las personas apenas comienzan a comprender los efectos resultantes. A medida que los modelos de lenguajes grandes mejoren en la producción de texto que suene auténticamente humano, mejorarán tanto en la creación de contenido adaptado a las necesidades individuales de cada persona como en la redacción de correos electrónicos de phishing convincentes.
“Uno de los peligros de la IA es que podría democratizar la violencia, facilitando que una variedad más amplia de malos actores causen daños. Los piratas informáticos, por ejemplo, han sido capaces de causar daño durante mucho tiempo. Pero los avances en los modelos de generación de código podrían hacer posible la producción de malware con una experiencia de codificación mínima”, advierten.
Por ejemplo, todo lo que un futuro terrorista podría necesitar para crear un patógeno mortal es una conexión a Internet.
Los gobiernos también tendrán que regular directamente el desarrollo de la inteligencia artificial. Aquí, Estados Unidos puede, y debe, liderar el camino. Para entrenar con éxito un sistema de inteligencia artificial, los desarrolladores necesitan grandes cantidades de chips altamente especializados, y Washington y dos aliados cercanos (Japón y los Países Bajos) son los únicos proveedores del hardware necesario para fabricar este material. Estados Unidos y sus socios ya han impuesto controles de exportación a China sobre los chips de inteligencia artificial y los equipos de fabricación de chips más avanzados. Pero tendrán que ir más allá, creando un registro de propiedad de chips o licencias para evitar que los chips avanzados se desvíen a actores prohibidos, incluidos los estados deshonestos.
Un sistema riguroso de concesión de licencias contribuirá en gran medida a fomentar un desarrollo seguro. Pero, en última instancia, incluso las regulaciones más estrictas no pueden detener la proliferación de la inteligencia artificial. Casi todas las innovaciones tecnológicas modernas, desde trenes hasta armas nucleares, se han extendido más allá de sus creadores, y la IA no será una excepción. Los sistemas sofisticados podrían propagarse a través de robos o filtraciones, incluida la inteligencia artificial que los reguladores prohíben que se publique.
“El uso de inteligencia artificial para protegerse contra la inteligencia artificial es una perspectiva aterradora”.