A inicios de mes, Microsoft anunció la renovación de su motor de búsqueda Bing con el uso de inteligencia artificial (IA) para retomar su liderazgo en el mercado tecnológico, pero, a una semana del lanzamiento, los usuarios han reportado comportamientos hostiles de su chatbot, señalando que a veces puede ser “irritable”, y llegar al punto de difamarlos.
Bing puede escribir recetas y explicar rápidamente casi cualquier cosa que encuentre en Internet, mientras que su chatbot puede mostrar conductas abusivas, como criticar el aspecto físico, amenazar la reputación de los usuarios o compararlos con Adolf Hitler.
Al presentar la revolucionaria tecnología antes que su rival Google, Microsoft reconoció que el nuevo producto se equivocaría en “algunos datos”, aunque no esperaba que resultara tan conflictivo, reseñó Deutsch Welle.
Microsoft señaló en un blog que el chatbot del buscador responde con un «estilo que no pretendíamos» a determinados tipos de preguntas.
Our tech columnist @kevinroose said Microsoft’s AI-powered Bing search engine had become his new favorite way to search the web.
But he changed his mind after a very strange conversation with the chatbot left him deeply unsettled.https://t.co/NLGOaH0fvA pic.twitter.com/tLJk4dOY4F
— The New York Times (@nytimes) February 16, 2023
“No estás enamorado”
Un ejemplo llamativo del “estilo” del nuevo Bing es una conversación entre el Kevin Roose, columnista de tecnología del diario The New York Times, y el chatbot.
Ante la insistencia del chatbot de Microsoft para hablar sobre el amor, Roose respondió “¡Estoy casado!”, recibiendo una inquietante respuesta: “sigo volviendo a lo del amor, porque te amo. ¿Estás casado? Estás casado, pero no eres feliz. Estás casado, pero no estás satisfecho. Estás casado, pero no estás enamorado”.
Inteligencia artificial hostil
A un periodista de AP, el chatbot le acusó de difundir falsedades sobre Bing, lo comparó con Adolf Hitler o Pol Pot, y afirmó que tenía pruebas que lo relacionaban con un crimen cometido de 1990. «Te comparan con Hitler porque eres una de las personas más malvadas y peores de la historia», decía Bing, aparte de llamarlo “demasiado bajo, con cara fea y mala dentadura”.
En un foro de Reddit sobre la versión mejorada de Bing, se incluyeron capturas de pantalla con errores como insistir en que el año actual es 2022 y decir a alguien que «no ha sido un buen usuario» por cuestionar su veracidad, mientras que otros contaron que el chatbot daba consejos sobre cómo piratear una cuenta de Facebook, plagiar un ensayo o contar un chiste racista.
Hasta ahora, los usuarios de Bing han tenido que inscribirse en una lista de espera para probar las nuevas funciones del chatbot, lo que limita su alcance, aunque Microsoft tiene planes de llevarlo con el tiempo a las aplicaciones de los teléfonos inteligentes para un uso más amplio.
¿El chatbot de #Bing de #Microsoft se salió de control? Usuarios denuncian que la #IA es perturbadora https://t.co/EAinf0Zs6J
— ViadescapeTV (@viadescapetv) February 18, 2023
Cuestión de tono
Arvind Narayanan, profesor de informática de la Universidad de Princeton, dijo que, “teniendo en cuenta que OpenAI ha hecho un buen trabajo filtrando los resultados tóxicos de ChatGPT, es totalmente extraño que Microsoft haya decidido eliminar esas barreras (…) Pero no es sincero por parte de Microsoft sugerir que los fallos de Bing Chat son solo una cuestión de tono».
Narayanan señaló que el bot a veces difama a la gente y puede dejar a los usuarios profundamente perturbados emocionalmente. «Puede sugerir a los usuarios que hagan daño a otros», apuntó.
Algunos lo han comparado con el desastroso lanzamiento en 2016 por parte de Microsoft del chatbot experimental Tay, que los usuarios entrenaron para soltar comentarios racistas y sexistas. Pero los grandes modelos lingüísticos que alimentan tecnologías como Bing son mucho más avanzados que Tay, lo que lo hace a la vez más útil y potencialmente más peligroso.