El avance de la inteligencia artificial (IA) supondrá un «riesgo de extinción» para la especie humana. Así lo afirmaron expertos en la materia en un informe publicado por el gobierno de Estados Unidos que advierte además sobre otros peligros asociados a la tecnología, como la desestabilización de la seguridad global y de las armas nucleares, entre otras «amenazas peligrosas».
El hallazgo surge de un estudio realizado por la consultora Gladstone AI, contratada por el Departamento de Estado estadounidense para evaluar las consecuencias que podría acarrear el desenfrenado avance de la tecnología y también para medir el «riesgo de militarización» en el mundo.
El estudio pidió una prohibición temporal de la creación de IA avanzada que supere un cierto umbral de potencia computacional. Y exigió asimismo que se definan un estado de emergencia para que el presidente de ese país pueda intervenir en la materia, como la «robótica de enjambres».
La Inteligencia Artificial enriqueció aún más a los multimillonarios del mundo en 2023
Qué dice el informe
Gladstone IA, la consultora encargada del estudio, está dirigida por los hermanos Jérémie y Edouard Harris, quienes desde 2021 vienen asesorando a funcionarios de la Casa Blanca respecto a los avances de la tecnología.
Pero en este caso, el que encargó y destinó la inversión de 250 mil dólares que costó el estudio fue el Departamento de Estado, a través de su Oficina de Seguridad Internacional y No Proliferación que tiene la tarea específica de frenar la propagación de nuevas armas catastróficas.
Desde X, Edouard Harris, uno de los autores del informe, contó detalles sobre el pedido del gobierno estadounidense para medir los «riesgos catastróficos para la seguridad nacional derivados de la IA», incluidos los sistemas en el camino hacia la AGI (NdR: Inteligencia Artificial General, aquella que iguala a la inteligencia humana). «Las cosas están peor de lo que pensábamos. Y nadie tiene el control», tuiteó el co-fundador de Gladstone IA.
El informe, que aclara no reflejar las opiniones del gobierno estadounidense, dedica considerable atención al «riesgo de militarización» que supone el avance de la IA. Una IA avanzada y ofensiva, indican, «podría usarse potencialmente para diseñar e incluso ejecutar ataques biológicos, químicos o cibernéticos catastróficos, o permitir aplicaciones armadas sin precedentes en robótica de enjambre«.
Un escenario distópico
Por otro lado, los expertos plantean un segundo escenario distópico que describen como un riesgo de «pérdida de control» de la IA, en especial si se la convierte en un arma, y que su uso podría rebotar de forma contraproducente y hasta volverse en contra de la humanidad, como muestra la película Terminator.
«Existen razones para creer que puede ser incontrolable si se desarrolla utilizando las técnicas actuales, y podría comportarse de forma adversa a los seres humanos por defecto», explican. En otras palabras, los robots podrían decidir por sí mismos si cierto grupo es un enemigo a erradicar.
La Inteligencia Artificial enciende una luz amarilla sobre el futuro
La información de gravedad, en tanto, ya había sido presentada por el director ejecutivo de Gladstone AI, Jérémie Harris, ante el congreso de Canadá en diciembre de 2023. «No es exagerado decir que las conversaciones más frías en la comunidad de seguridad de la IA en la frontera enmarcan la IA en el futuro cercano como un arma de destrucción masiva«, dijo Harris a los legisladores canadienses.
«En público y en privado, los laboratorios de inteligencia artificial de vanguardia nos dicen que esperemos que los sistemas de inteligencia artificial sean capaces de llevar a cabo ataques de malware catastróficos y respaldar el diseño de armas biológicas, entre muchas otras capacidades alarmantes, en los próximos años», agregó. «Nuestra propia investigación», afirmó, «sugiere que se trata de una evaluación razonable».
Recomendaciones
Ante la feroz competencia que existe entre las empresas de IA y los incentivos que tienen para escalar, es necesario que los gobiernos inviertan de la misma manera en seguridad, a modo de equilibrio. Así lo manifestaron los coautores del estudio. El único medio viable para frenar su escenario, aconsejan, es fuera del ciberespacio.
En esa línea, la medida que se puede tomar tiene que ver con la estricta regulación de los chips de computadora de alta gama usados para entrenar sistemas de inteligencia artificial en el mundo real. También es útil evitar su contrabando internacional, e incluso monitorear cómo se usa el hardware, son sólo algunas de las medidas drásticas que exige el nuevo estudio.
El llamado a la «no proliferación» en este hardware es el «requisito más importante para salvaguardar la seguridad global a largo plazo frente a la IA», indicaron. «Es una recomendación extremadamente difícil de hacer, y pasamos mucho tiempo buscando formas de sugerir medidas como esta», agregaron.
El informe se suma a un coro de voces industriales, gubernamentales, académicas y de organismos internacionales que exigen una atención regulatoria ofensiva sobre el revolucionario potencial de la inteligencia artificial por los efectos disruptivos que tendrá en la sociedad.
cd / ed