En el mundo, agencias de inteligencia y seguridad de 18 países acordaron una serie de normas que regulan a las IA`s

La inteligencia artificial (IA) es una de las tecnologías más disruptivas y prometedoras de nuestro tiempo, capaz de transformar sectores como la salud, la educación, la economía y la seguridad. Sin embargo, también plantea desafíos éticos, sociales y legales que deben ser abordados con responsabilidad y transparencia. Por eso, es una buena noticia que 18 países, incluyendo EE.UU. y Reino Unido, hayan acordado respaldar las primeras directrices a nivel mundial para garantizar la seguridad en el diseño, desarrollo e implementación de la IA.

Estas normas, anunciadas por el Centro Nacional de Seguridad Cibernética del Reino Unido (NCSC) y elaboradas en colaboración con la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU. (CISA) y expertos internacionales, servirán como guía para que los desarrolladores tomen decisiones informadas sobre ciberseguridad al crear sistemas de IA.

Las directrices se basan en un enfoque de “seguridad por diseño”, que busca asegurar que los modelos de IA funcionen de manera prevista, estén disponibles cuando sea necesario y operen sin revelar datos confidenciales a partes no autorizadas. Se dividen en cuatro áreas: diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros.

Entre los países que las han firmado se encuentran Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur. La directora de la CISA, Jen Easterly, destacó que este esfuerzo conjunto refuerza la misión de proteger la infraestructura crítica y resalta la importancia de la colaboración internacional para asegurar el futuro digital.

Este acuerdo se suma a otras iniciativas legislativas y regulatorias que buscan establecer un marco ético y legal para el uso de la IA. En junio, el Parlamento Europeo aprobó una ley que regula el uso de la IA, clasificando las herramientas según su nivel de riesgo. Alemania, Francia e Italia también acordaron la “autorregulación obligatoria” de los modelos básicos de IA a través de códigos de conducta. En Estados Unidos, el presidente Joe Biden emitió una orden ejecutiva en octubre para gestionar los riesgos de la inteligencia artificial, buscando que las empresas compartan información crítica en el marco de nuevos estándares de seguridad y protección de la IA.

Estas medidas son necesarias para garantizar que la IA se desarrolle y aplique con respeto a los derechos humanos, la democracia y el Estado de derecho. La IA debe ser una herramienta al servicio del bien común, no un instrumento para el control social o la manipulación política. Por eso, es fundamental que los gobiernos, las empresas, la sociedad civil y los usuarios participen activamente en el debate sobre los principios y valores que deben guiar el desarrollo y uso de la IA.

Notas De Cristal Para Una Generación En Construcción

Compartir:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Discover more from Revista Juventud

Subscribe now to keep reading and get access to the full archive.

Continue reading