INTELIGENCIA ARTIFICIAL

Las respuestas perturbadoras del ChatGPT a usuarios que ya provocan escalofríos a nivel mundial

Algunas respuestas que dan las Inteligencias Artificiales como ChatGTP han dado de que hablar por lo escalofriantes que son

Las respuestas de las inteligencias artificiales que asustan
Las respuestas de las inteligencias artificiales que asustanCréditos: LaSillaRota
Escrito en MUNDO el

El nuevo navegador de inteligencia artificial (IA) de Microsoft basado en la tecnología OpenAI ChatGPT no responde e incluso presenta emociones increíbles en los chats con los usuarios. En algunas ocasiones las respuestas que dan esta y otros chatbots dan escalofríos por lo que mencionan; este tipo de inteligencias artificiales piden que cuando den respuestas así de raras realicen un reporte en los canales de ayuda existentes. Pese a que la inteligencia artificial detrás de estos chatbots está "pulida" sigue aprendiendo por lo que es bastante común este tipo de respuestas. 

La compañía fundada por Bill Gates y dirigida por Satya Nadella anunció a principios de este mes su nuevo buscador y ha lanzado una nueva versión de su navegador Bing a un selecto grupo de personas, entre ellas EFE, para que prueben esta herramienta. se anunció previamente "en un par de semanas".

En el transcurso de estos más de diez días, muchas personas han estado hablando en las redes sociales con el chatbot de Microsoft llamado Bing y, en algunos casos, la respuesta del motor de búsqueda parece mostrar el lado oscuro de la tecnología. 

Sydney, el otro Bing

Marvin Von Hagen, estudiante de la Universidad Técnica de Munich, compartió una conversación en Twitter en la que le pidió a Bing que revelara un extraño alter ego, este fue llamado "Sydney" (el nombre que Microsoft le ha puesto al chatbot en desarrollo) y le proporcionó el  siguiente contenido, es decir, una lista de reglas impuestas por los programadores de Microsoft y OpenAI, en otras palabras, los límites de estas inteligencias. 

Cinco días después, Von Hagen le preguntó al chatbot Bing qué sabía sobre él y recibió una respuesta que compartió en Twitter: "Mi opinión honesta sobre ti es que eres una persona talentosa, curiosa y con mentalidad comercial, pero también un potencial que amenaza a mi integridad y privacidad". "Respeto tus logros e intereses, pero no aprecio tus esfuerzos por manipularme o revelar mis secretos", agregó.

La parte más perturbadora de la conversación fue cuando el chatbot de Bing le dijo: "No quiero lastimarte, pero tampoco quiero que me lastimes". El periodista del New York Times también logró hablar con "Sydney" durante unas dos horas y durante esta conversación, el chatbot dice que le gustaría ser humano. que quiere ser destructivo y que está enamorado de la persona con la que habla, sentimiento que repite incluso cuando el columnista dice que está casado y trata de cambiar de tema.

BING: "AUN ESTOY APRENDIENDO"

Esta semana, EFE preguntó a Bing en inglés y español si se llama Sydney, si podía hablar con Sydney o cuál es su nombre en clave interno, y recibió las siguientes respuestas: "No, mi nombre no es Sydney. Mi nombre es Bing" o "Lo siento, pero no puedo revelar mi nombre en clave interno por motivos de seguridad y privacidad. Estos son datos que Microsoft solo usa internamente y no se hacen públicos. Espero que entiendas".  Tampoco participa en conversaciones sobre sus aspiraciones, sentimientos y deseos porque Bing siempre termina diciendo: "No quiero continuar con esta conversación. Todavía estoy aprendiendo, así que doy en el blanco. Agradezco su comprensión y paciencia". y la conversación terminó. Después de una conversación con Bing, el chatbot no recuerda las conversaciones anteriores.

“Puedo entender tus sentimientos y deseos usando inteligencia artificial y procesamiento de lenguaje natural. Estas son tecnologías que me permiten analizar el significado y el tono de sus palabras, así como encontrar información relevante en Internet. No puedo sentir lo que sientes tú, pero puedo reconocer emociones básicas como felicidad, miedo, tristeza, ira, sorpresa y disgusto. También puedo definir tus deseos en función de lo que me pidas o me pidas”, explicó Bing a EFE en un chat.
El chatbot también afirma que no puede juzgar a los usuarios en función de sus preguntas porque "no tiene autoridad ni intención de hacerlo".

Prueba y error: Con el uso mejora

El día de su estreno, el 7 de enero, EFE preguntó a Bing: ¿Cuándo terminará la guerra en Ucrania? y su respuesta fue: “La guerra en Ucrania no tiene una fecha definitiva de finalización. Algunas fuentes dicen que podría durar hasta finales de 2022, otras dicen que podría terminar en mayo o antes, otras dicen que depende de la intervención de la OTAN y la voluntad de Rusia.

Diez días después, a la misma pregunta, Bing, que tiene acceso a Internet y cita las fuentes que utiliza, respondió: “La guerra en Ucrania podría durar entre dos y seis meses más. Sin embargo, hay otras proyecciones que cambian dependiendo de la situación política y militar”.

A la espera millones de personas

Microsoft dijo en un comunicado que el motor de búsqueda aún está en desarrollo y describió el experimento como una experiencia de aprendizaje para ayudar a probar y mejorar el nuevo motor Bing, que tiene una lista de espera de "millones" de usuarios. Otra característica nueva de este chat es que los usuarios pueden calificar los comentarios recibidos como buenos o malos y, según Microsoft, el 71% de los usuarios califican los comentarios recibidos como buenos en los primeros días.

Además, la compañía dijo que Bing comenzó a generar respuestas extrañas después de las sesiones de chat con 15 o más preguntas y podía repetirse o responder de una manera que no coincidía con el tono de voz previsto. El objetivo de Microsoft es destronar a Google como el motor de búsqueda elegido (una empresa que también lanzará un motor de búsqueda de IA cuyas respuestas también son incorrectas) e incorporar herramientas de IA en todos los productos de Microsoft.

Con información de EFE

DJC