Seleccionar página

Reportan “comportamiento hostil” del chatbot Bing de Microsoft

Fuser News

19/02/2023
A una semana del lanzamiento del chatbot de Bing, los usuarios han reportado comportamientos hostiles, señalando que a veces puede ser “irritable” y puede llegar al punto de difamarlos.
Bing puede escribir recetas y explicar rápidamente casi cualquier cosa que encuentre en Internet, mientras que su chatbot puede mostrar conductas abusivas, como criticar el aspecto físico, amenazar la reputación de los usuarios o compararlos con Adolf Hitler.

K. Jiménez

A inicios de mes, Microsoft anunció la renovación de su motor de búsqueda Bing con el uso de inteligencia artificial (IA) para retomar su liderazgo en el mercado tecnológico, pero, a una semana del lanzamiento, los usuarios han reportado comportamientos hostiles de su chatbot, señalando que a veces puede ser “irritable”, y llegar al punto de difamarlos.

Bing puede escribir recetas y explicar rápidamente casi cualquier cosa que encuentre en Internet, mientras que su chatbot puede mostrar conductas abusivas, como criticar el aspecto físico, amenazar la reputación de los usuarios o compararlos con Adolf Hitler.

Al presentar la revolucionaria tecnología antes que su rival Google, Microsoft reconoció que el nuevo producto se equivocaría en “algunos datos”, aunque no esperaba que resultara tan conflictivo, reseñó Deutsch Welle.

Microsoft señaló en un blog que el chatbot del buscador responde con un «estilo que no pretendíamos» a determinados tipos de preguntas.

“No estás enamorado”

Un ejemplo llamativo del “estilo” del nuevo Bing es una conversación entre el Kevin Roose, columnista de tecnología del diario The New York Times, y el chatbot.

Ante la insistencia del chatbot de Microsoft para hablar sobre el amor, Roose respondió “¡Estoy casado!”, recibiendo una inquietante respuesta: “sigo volviendo a lo del amor, porque te amo. ¿Estás casado? Estás casado, pero no eres feliz. Estás casado, pero no estás satisfecho. Estás casado, pero no estás enamorado”.

Inteligencia artificial hostil

A un periodista de AP, el chatbot le acusó de difundir falsedades sobre Bing, lo comparó con Adolf Hitler o Pol Pot, y afirmó que tenía pruebas que lo relacionaban con un crimen cometido de 1990. «Te comparan con Hitler porque eres una de las personas más malvadas y peores de la historia», decía Bing, aparte de llamarlo “demasiado bajo, con cara fea y mala dentadura”.

En un foro de Reddit sobre la versión mejorada de Bing, se incluyeron capturas de pantalla con errores como insistir en que el año actual es 2022 y decir a alguien que «no ha sido un buen usuario» por cuestionar su veracidad, mientras que otros contaron que el chatbot daba consejos sobre cómo piratear una cuenta de Facebook, plagiar un ensayo o contar un chiste racista.

Hasta ahora, los usuarios de Bing han tenido que inscribirse en una lista de espera para probar las nuevas funciones del chatbot, lo que limita su alcance, aunque Microsoft tiene planes de llevarlo con el tiempo a las aplicaciones de los teléfonos inteligentes para un uso más amplio.

Cuestión de tono

Arvind Narayanan, profesor de informática de la Universidad de Princeton, dijo que, “teniendo en cuenta que OpenAI ha hecho un buen trabajo filtrando los resultados tóxicos de ChatGPT, es totalmente extraño que Microsoft haya decidido eliminar esas barreras (…) Pero no es sincero por parte de Microsoft sugerir que los fallos de Bing Chat son solo una cuestión de tono».

Narayanan señaló que el bot a veces difama a la gente y puede dejar a los usuarios profundamente perturbados emocionalmente. «Puede sugerir a los usuarios que hagan daño a otros», apuntó.

Algunos lo han comparado con el desastroso lanzamiento en 2016 por parte de Microsoft del chatbot experimental Tay, que los usuarios entrenaron para soltar comentarios racistas y sexistas. Pero los grandes modelos lingüísticos que alimentan tecnologías como Bing son mucho más avanzados que Tay, lo que lo hace a la vez más útil y potencialmente más peligroso.

Comparte este artículo

Síguenos en Google News

Sigue a Fuser en Google News
Investigadores advierten que ciudades chinas se hunden

Investigadores advierten que ciudades chinas se hunden

Investigadores sobre el clima advierten sobre el riesgo de inundaciones debido al hundimiento de principales ciudades de China y otros países de Asia. Con base en datos satelitales, los especialistas señalaron en un artículo publicado por la revista Science que el 45%...

Irán confirmó derribo de drones israelíes

Irán confirmó derribo de drones israelíes

La madrugada de este viernes, las defensas antiaéreas de Irán derribaron varios drones israelíes con sistemas terrestres a baja altura, lo que provocó tres explosiones en las cercanías de una base militar en la provincia de Isfahán, en el centro del país. El portavoz...

Quiero recibir las noticias

Utilizamos cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies