El experto en seguridad de la Inteligencia Artificial (IA), Dan Hendrycks, determinó los riesgos especulativos que plantea el desarrollo incontrolado de esta tecnología, “cada vez más inteligente”.
Según su estudio, estas tecnologías plantean ocho grandes riesgos:
Armamentismo: la capacidad de la IA para automatizar ciberataques o controlar silos nucleares.
Debilitamiento de las habilidades humanas: mientras estos sistemas sigan permitiendo abaratar tareas específicas y llevarlas a cabo de forma más eficiente, más empresas adoptarán la tecnología, eliminando ciertas funciones «humanas» del mercado laboral.
Episteme erosionada: este término se refiere a la capacidad de la IA para montar campañas de desinformación a gran escala para influir en la opinión pública hacia un determinado sistema de creencias o visión del mundo.
Proxy gaming: se produce cuando se asigna a un sistema de IA un objetivo contrario a los valores humanos.
Bloqueo de valores: a medida que los sistemas de IA se hacen más potentes y complicados, el número de partes interesadas que los manejan se reduce, lo que produce a una privación masiva de derechos.
Objetivos emergentes: es posible esta tecnología se vuelva más compleja y obtengan la capacidad de crear sus propios objetivos.
Engaño: los humanos pueden entrenar a la IA para que sea engañosa con el fin de obtener la aprobación general.
Búsqueda de poder: a medida que los sistemas de IA se hacen más potentes, pueden volverse peligrosos si sus objetivos no se alinean con los de los humanos que los programan.
Basado en sus resultados, el experto resaltó que estos riesgos están «orientados al futuro» y «a menudo se consideran de baja probabilidad».
De igual forma, aboga por la incorporación de características de seguridad y protección al funcionamiento de los sistemas de IA.