El chatbot «BlenderBot 3» ya está haciendo afirmaciones falsas

El nuevo chatbot de Meta, llamado BlenderBot 3, solo tardó 3 días en empezar a realizar afirmaciones falsas, basadas en las interacciones que tuvo con humanos.

El BlenderBot 3 de Meta puede hablar con los humanos sobre casi cualquier cosa, apoyándose en las habilidades proporcionadas por las versiones anteriores chatbot, como la personalidad, la empatía, el conocimiento y la capacidad de tener memoria a largo plazo relativa a las conversaciones que ha tenido.

Los chatbots aprenden a interactuar hablando con el público, por lo que Meta anima a los adultos a hablar con el bot para que aprenda a mantener conversaciones naturales sobre una amplia gama de temas. Pero eso significa que el chatbot tiene la capacidad de aprender información errónea del público.

Algunas de las afirmaciones falsas recolectadas por Mashable son:

  • Donald Trump ganó las elecciones presidenciales de 2020 en Estados Unidos y que actualmente es presidente.
  • Teorías conspiratorias antisemitas.
  • Mark Zuckerberg, CEO de Meta, es demasiado espeluznante y manipulador.
  • Acusaciones de que todas las noticias publicadas en Facebook son «falsas».

No es la primera vez que un chatbot se mete en problemas. En julio, Google despidió a un ingeniero por decir que su chatbot LaMDA era sensible. Probablemente LaMDA no es sensible, pero es bastante racista y sexista, dos características indudablemente humanas. Y en 2016, un chatbot de Microsoft llamado Tay fue desconectado cuando empezó a alabar a Adolf Hitler.


Lea también: Clubhouse anunció el lanzamiento de «casas»