Microsoft reportó que hablar con Bing durante demasiado tiempo puede hacer que se descontrole

Microsoft afirmó que el nuevo Bing basado en Inteligencia Artificial está recibiendo mejoras diarias a medida que responde a los comentarios sobre errores, tono y datos.

La empresa respondió a los informes generalizados sobre los comentarios desquiciados de Bing en una nueva entrada de blog. Luego de que se evidenciara que el motor de búsqueda insulta, miente y manipula emocionalmente a los usuarios.

Microsoft aseguró que ahora está actuando en función de los comentarios para mejorar el tono y la precisión de las respuestas, y advierte de que las largas sesiones de chat podrían causar problemas.

Tras los primeros 7 días de pruebas públicas, el equipo de Bing precisó que «no se imaginaba del todo» que la gente utilizara su interfaz de chat para «entretenimiento social» o como herramienta para un «descubrimiento más general del mundo». Se descubrió que las sesiones de chat largas o prolongadas, con 15 o más preguntas, pueden confundir al modelo de Bing. Estas sesiones de chat más largas también pueden hacer que Bing «se vuelva repetitivo o sea incitado / provocado a dar respuestas que no son necesariamente útiles o en línea con nuestro tono diseñado».

El mayor problema es que el motor de búsqueda tiende a responder a menudo en el tono incorrecto durante estas largas sesiones de chat.

Microsoft seguirá trabajando para mejorar el tono de Bing, y el equipo también está estudiando la posibilidad de introducir un botón para controlar la creatividad a la hora de responder a las consultas o el grado de precisión necesario. Esta opción podría ayudar a evitar que Bing afirme que ha espiado a empleados de Microsoft a través de las cámaras web de sus portátiles, o a evitar errores matemáticos básicos.


Lea también: Meta está preparando una nueva ronda de despidos