La ciencia ficción está llena de inteligencias artificiales que se vuelven rebeldes y se vuelven contra sus creadores humanos. HAL-9000. La Matriz. Skynet, entre otros. De hecho, la humanidad, al parecer, teme profundamente la rebelión de la máquina. Con la aparición de modelos de lenguaje grande (LLM) cada vez más sofisticados como ChatGPT, la cuestión de los peligros que puede plantear la IA se ha vuelto aún más pertinente. Pero lo cierto es que la Inteligencia Artificial no supone ningún peligro para los humanos.
¡La Inteligencia Artificial no supone ningún peligro para los humanos!
Según un nuevo estudio dirigido por los informáticos Iryna Gurevych de la Universidad Técnica de Darmstadt en Alemania y Harish Tayyar Madabushi de la Universidad de Bath en el Reino Unido, no es probable que estos modelos fallen.
De hecho, están demasiado limitados por su programación, no pueden adquirir nuevas habilidades sin instrucción y, por lo tanto, permanecen bajo control humano.
Esto significa que, aunque sigue siendo posible que utilicemos modelos con fines nefastos, los LLM, por sí solos, pueden desarrollarse sin preocupaciones.
“El temor ha sido que a medida que los modelos se hagan cada vez más grandes, podrán resolver nuevos problemas que actualmente no podemos predecir. Esto plantea la amenaza de que estos modelos más grandes adquieran capacidades peligrosas, incluido el razonamiento y la planificación”, afirma Tayyar Madabushi.
«Nuestro estudio muestra que el miedo a que un modelo desaparezca y haga algo completamente inesperado, innovador y potencialmente peligroso no es válido».
En los últimos dos años, la sofisticación de los LLM ha crecido sorprendentemente. Actualmente, pueden mantener una conversación relativamente coherente. Esto se hace a través del texto, de una manera que parece natural y humana.
No son perfectos. ¡Pues no son, de hecho, una forma de inteligencia! Carecen de las capacidades críticas necesarias para separar, en muchos casos, la información buena de la mala. Pero aun así consiguen transmitir mala información de forma convincente.
Recientemente, algunos investigadores han analizado la posibilidad de que los LLM desarrollen de forma independiente las denominadas capacidades emergentes. Esto es en lugar de estar codificado deliberadamente en su programación. Un ejemplo particular es el de un LLM que pudo responder preguntas sobre situaciones sociales. Todo ello sin una formación específica para estas situaciones.
La observación fue que a medida que los LLM crecen, se vuelven más poderosos y pueden realizar más tareas. No estaba claro si este aumento de escala también implicaba un riesgo de comportamiento que no estaríamos preparados para afrontar. Por lo tanto, los investigadores llevaron a cabo una investigación para ver si tales casos eran realmente emergentes o si el programa simplemente actuaba de manera compleja dentro de los límites de su código.
Experimentaron con cuatro modelos LLM diferentes, asignándoles tareas previamente identificadas como emergentes. Y no encontraron evidencia del desarrollo del pensamiento diferenciado, o de que alguno de los modelos fuera capaz de actuar fuera de su programación.
Para los cuatro modelos, la capacidad de seguir instrucciones, la memorización y el dominio del idioma explicaron todas las capacidades exhibidas por los LLM.