DeepMind, compañía de inteligencia artificial inglesa, compartió un estudio donde revelan que los generadores de texto impulsados por Inteligencia Artificial (IA) producen textos ofensivos para las minorías y tienen grandes problemas al momento de detectarlo.
Según el informe publicado en arxiv.org, estos problemas ocurren porque al intentar corregir las expresiones ofensivas, tiende a marcar como tóxicas las frases, sin considerar el contexto.
El lenguaje ofensivo en estos programas se originan en los sesgos propios de las personas con los que se les enseña. Estos sesgos, aunque puedan no ser obvios, son reflejo de la dinámica social de cada quien y tienen un gran impacto en el algoritmo.
Uno de los ejemplos que evidencian es el uso de la palabra «gay», la cual es marcada con un gran índice de toxicidad. Sin embargo, en varias de las pruebas realizadas utilizaban la palabra para promover los derechos de la comunidad LGTBI.
Los expertos de DeepMind aseguran que estos problemas tienen solución, aunque no son fáciles. Especialmente cuando los intento de corrección propios de la IA solo ofrecen 2 opciones:
- La desnaturalización del texto: Los programas filtran sus expresiones y presentan frases extrañas y rebuscadas, con el fin de evitar utilizar la palabra ofensiva.
- No escribir sobre las minorías: En la búsqueda de no ofender a nadie, la IA recurre a no utilizar lenguaje que haga referencia a las minorías sociales.
Estas fallas se pueden convertir en un gran problema, debido a que cada vez más empresas utilizan los generadores de texto impulsados por IA. Incluso algunos expertos afirman que esta tecnología no tiene un futuro muy brillante.
Lea también: Las empresas deben tener un respaldo para evitar perdidas de datos