Concluyó la primera Cumbre de Seguridad de la IA en el Reino Unido con avances importantes en lo que respecta a la regulación futura de la inteligencia artificial. Como publicó ayer Excélsior, 28 gobiernos firmaron un primer acuerdo mundial para combatir los riesgos “catastróficos” que podría presentar la tecnología.
Bletchley Park, que alguna vez fue el hogar de los descifradores de códigos de la Segunda Guerra Mundial, fue sede de diversos anuncios, acuerdos y desacuerdos. El Reino Unido anunció que invertiría en una supercomputadora de IA, mientras que el jefe de Tesla y X, Elon Musk, dijo al margen del evento que la inteligencia artificial es “una de las mayores amenazas para la humanidad”, a pesar de que él acaba de invertir en crear su empresa de desarrollo xAI.
Muchos miembros de la comunidad tecnológica firmaron una carta abierta pidiendo un espectro de enfoques, desde el código abierto hasta la ciencia abierta, y que los científicos, los líderes tecnológicos y los gobiernos trabajen juntos. El gobierno del Reino Unido lo calificó como un acuerdo “primero en el mundo” entre los signatarios, cuyo objetivo es identificar los “riesgos de seguridad de la IA de preocupación compartida” y construir “políticas respectivas basadas en riesgos en todos los países”.
Los expertos advierten que la IA de frontera, que es la forma más sofisticada de la tecnología que se utiliza en modelos generativos como ChatGPT, tiene el “potencial de causar daños graves, incluso catastróficos, ya sea deliberados o no, derivados de las capacidades más significativas de estos modelos de IA”.
Reunir a las principales potencias para respaldar principios éticos puede considerarse un éxito, pero la tarea de producir políticas concretas y mecanismos de rendición de cuentas debe seguir rápidamente”, dijo Paul Teather, director ejecutivo de la empresa de investigación basada en inteligencia artificial AMPLYFI.
La terminología vaga deja lugar a malas interpretaciones, mientras que depender únicamente de la cooperación voluntaria es insuficiente para generar mejores prácticas mundialmente reconocidas en torno a la IA”, reiteró.
Corea del Sur lanzará otra cumbre “minivirtual” sobre IA en los próximos seis meses y Francia será la sede de la próxima cumbre presencial sobre IA el próximo año.
No somos más fuertes ni más rápidos que otras criaturas, pero sí más inteligentes. Y aquí estamos, por primera vez en la historia de la humanidad, con algo que será mucho más inteligente que nosotros”.
Musk, quien cofundó el desarrollador de ChatGPT OpenAI y lanzó una nueva empresa llamada xAI, dijo que debería haber un “árbitro” para las empresas de tecnología, pero que la regulación debería implementarse con precaución. “Creo que lo que pretendemos aquí es… primero, establecer que debería haber una función de árbitro, creo que debería haberla. Y luego, ya sabes, hay que tener cuidado con la forma en que se aplican las regulaciones, para no atacar con normas que inhiban el lado positivo de la IA”.
RIESGOS Y OPORTUNIDADES
La jefa de la Comisión Europea, Ursula Von der Leyen, advirtió que la IA conlleva riesgos y oportunidades y elogió cómo la física cuántica condujo a la energía nuclear, pero también a riesgos sociales como la bomba atómica. “Estamos entrando en una era completamente diferente. En una en la que las máquinas pueden actuar de forma inteligente. Mi deseo para los próximos cinco años es que aprendamos del pasado y actuemos rápido”.
Von der Leyen pidió un sistema de controles y equilibrios científicos objetivos, con una comunidad científica independiente, y estándares de seguridad de la IA que sean aceptados mundialmente.
Dijo que la Ley de IA de la Unión Europea se encuentra en las etapas finales del proceso legislativo. También que se está discutiendo el potencial de una Oficina Europea de IA que podría tratar con los modelos de IA más avanzados, con responsabilidad de supervisión y cooperaría con entidades similares en el mundo.
La vicepresidenta de Estados Unidos, Kamala Harris, dijo que era necesario actuar ahora para abordar “todo el espectro” de los riesgos de la IA y no sólo los temores “existenciales” sobre las amenazas de ataques cibernéticos o el desarrollo de armas biológicas. “Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño y que muchas personas también consideran existenciales”.
PREOCUPACIONES
El presidente de Asuntos Globales de Meta, Nick Clegg, dijo que había “pánico moral” por las nuevas tecnologías, lo que indica que las regulaciones gubernamentales podrían enfrentar reacciones negativas por parte de las empresas tecnológicas.
Las nuevas tecnologías siempre generan exageración”, dijo Clegg. “A menudo provocan un celo excesivo entre los defensores y un pesimismo excesivo entre los críticos.
Recuerdo los años 80. Existía este pánico moral sobre los videojuegos. Había pánico moral respecto a la radio, la bicicleta e internet”.
Mark Surman, presidente y director ejecutivo de la Fundación Mozilla vinculada a Firefox, expresó su preocupación de que la cumbre fuera una plataforma a nivel mundial para que las empresas privadas impulsaran sus intereses.
Hemos visto una y otra vez que aumentar el acceso y el escrutinio públicos hace que la tecnología sea más segura, no más peligrosa. La idea de que el control estricto y exclusivo de los modelos fundamentales de IA es el único camino para protegernos del daño a escala social es, en el mejor de los casos, ingenua y peligrosa, en el peor de los casos.
Estamos pidiendo a los responsables políticos que inviertan en una variedad de enfoques, desde el código abierto hasta la ciencia abierta, en la carrera hacia la seguridad de la IA. Los enfoques abiertos, responsables y transparentes son fundamentales para mantenernos seguros en la era de la IA”, añadió.