Tecnología

Colaboración global: la clave para enfrentar los riesgos de la inteligencia artificial

El Carnegie Endowment for International Peace (CEIP), el think-tank estadounidense de políticas estratégicas, acaba de publicar un informe titulado “The Future of International Scientific Assessments of AI’s Risks". Se trata de un trabajo que destaca la necesidad urgente de colaboración internacional para evaluar los riesgos asociados con la inteligencia artificial (IA), uno de los temas más actuales y urgentes relacionados con esta tecnología

Este documento plantea al inicio una serie de riesgos asociados con el uso de la inteligencia artificial, especialmente cuando no existe un marco científico eficiente para abordarlos.

Uno de los riesgos más urgentes es el uso malintencionado de esta tecnología, que puede ser explotada para realizar ciberataques, campañas de desinformación y otras actividades delictivas que ponen en peligro tanto la seguridad como la privacidad de los individuos. Sin un control adecuado, la IA puede generar los llamados “impactos sistémicos”, en los que puede ser utilizada para desestabilizar economías o estructuras sociales cuando no hay una gestión adecuada de su uso.

A medida que los sistemas de IA avanzan y expanden sus capacidades, aumentan también los riesgos de un mal uso o incluso consecuencias no deseadas, lo que plantea desafíos adicionales respecto a la gobernanza y la supervisión. Además, todavía persisten preocupaciones importantes sobre la privacidad de los datos, ya que muchos de estos sistemas dependen de volúmenes cada vez más importantes de información personal para funcionar de manera efectiva.

Para el CEIP, hay otros dos riesgos no menores relacionados con el uso sin supervisión de la IA. El primero tiene que ver con el potencial que tiene la IA para perpetuar sesgos y discriminación. Si los sistemas de IA son entrenados con datos que ya contienen prejuicios, estos puede generar una amplificación, produciendo resultados injustos en ámbitos como la contratación o la aplicación de la ley. El segundo se da en el plano geopolítico y tiene que ver con la carrera por el desarrollo de IA, que está aumentando las tensiones entre países que buscan la supremacía tecnológica. Potencialmente, ello podría derivar en una “carrera armamentística” en el ámbito de la inteligencia artificial.

A partir de estos riesgos, el CEIP propone una serie de estrategias que buscan facilitar la colaboración internacional para evaluarlos y eventualmente mitigarlos. La sugerencia principal tiene que ver con las Naciones Unidas: aprovechar el poder de convocatoria del organismo internacional para reunir a los actores clave y darle la legitimidad política necesaria para enfrentar estos riesgos. Una vez establecido este paso inicial, la ONU podría desarrollar informes científicos independientes y el establecimiento de mecanismos formales de coordinación -especialmente memorandos de entendimiento- para alinear estos informes con los procesos globales. La clave para que esta coordinación dé frutos reside en la amplitud que ofrece la ONU, en la que está representados una amplia gama de actores y perspectivas que aseguran una evaluación lo más diversa posible.

Otro de los aspectos importantes que reseña este trabajo tiene que ver con los talleres o workshops en el proceso de evaluación. Los talleres juegan un papel fundamental en la evaluación de los riesgos de la IA, ya que habilitan la colaboración entre científicos, responsables políticos y otros actores clave, que de otra manera trabajarían de forma separada. Estos espacios de coordinación y diálogo permiten la construcción de consensos, el intercambio de conocimientos y la identificación de desafíos emergentes. Además, fomentan una representación amplia de países y disciplinas, lo que termina por enriquecer todo el proceso de evaluación de estos riesgos. Según el informe, los talleres también le dan legitimidad a los distintos hallazgos, al involucrar a una amplia gama de interesados. Esto aseguraría que los resultados sean aceptados y aplicados por todos los gobiernos y organizaciones involucradas.

Por último, el CEIP señala la necesidad de contar con enfoques interdisciplinarios para gestionar los riesgos que mencionamos. Es fundamental la colaboración entre gobiernos, las universidades, la industria y la sociedad civil de distintas regiones, pero es más importante todavía aprender de las lecciones de otros desafíos globales, como el cambio climático. Es que estas experiencias pueden corregirse y aplicarse para la gobernanza de la IA.

Todos los ejemplos que menciona el informe de la CEIP son elocuentes y subrayan la importancia de contar con una estrategia global unificada para enfrentar los riesgos de la IA, una que esté basada en la cooperación internacional, la integridad científica y la participación amplia de distintos países y regiones. Se trata de un enfoque fundamental para garantizar que las acciones globales sobre inteligencia artificial sean efectivas y beneficien a toda la sociedad y no sólo a los países que más se están aprovechando de ella.