Dale al play para escuchar este artículo
Expresado por la inteligencia artificial.
LULEÅ, Suède – De hauts responsables européens et américains se sont réunis mercredi en Suède pour des discussions sur la technologie et le commerce et ont tenté de trouver une réponse à l’un des problèmes les plus difficiles auxquels le monde est confronté: comment contrôler l ‘inteligencia artificial.
Durante un almuerzo de una hora de lomo de bacalao y praliné de chocolate, los funcionarios en Washington y Bruselas elaboraron un «código de conducta» voluntario diseñado para prevenir daños, incluso de tecnología de inteligencia artificial avanzada conocida como IA generativa, como ChatGPT de OpenAI y Google. . Bardo. En cuestión de meses, la tecnología ha conquistado al público, generando esperanzas y preocupaciones sobre el futuro de la humanidad.
Mientras que algunos están encantados con el potencial de la IA para generar códigos informáticos y resolver problemas médicos, otros temen que podría dejar sin trabajo a millones de personas e incluso amenazar la seguridad.
«La democracia tiene que demostrar que somos tan rápidos como la tecnología», dijo a los periodistas la comisaria digital de la UE, Margrethe Vestager, mientras asistía a la cumbre UE-EE.UU. del Consejo de Comercio y Tecnología (TTC) en la pequeña ciudad industrial de Luleå, 150 kilómetros al sur. del círculo polar ártico.
El TTC se ha convertido en una reunión bianual donde los principales líderes transatlánticos, como el secretario de Estado de EE. UU., Antony Blinken, y el jefe comercial de la Unión Europea, Valdis Dombrovskis, desarrollan enfoques comunes en todo, desde semiconductores hasta inversiones en tecnología ecológica. La cuarta edición de esta semana está dominada por cómo defenderse de China, donde las dos partes aún luchan por llegar a un acuerdo.
Pero cuando se trata del auge de la IA, EE. UU. y la UE están cada vez más interesados en avanzar juntos.
“Esto está sucediendo a un ritmo sin precedentes”, dijo Gina Raimondo, Secretaria de Comercio de EE. UU., refiriéndose a la IA generativa. «Tomará algún tiempo para que el Congreso de los Estados Unidos o el parlamento (de un país) o nuestras otras agencias reguladoras se pongan al día».
Pero el plan conjunto todavía está en forma de borrador, en el mejor de los casos. Vestager le dijo a POLITICO que el código de conducta voluntario es actualmente una nota informativa de dos páginas producida por la Comisión Europea que ella entregó personalmente a Raimondo el miércoles.
El objetivo, según el político danés, es proponer estándares no vinculantes con respecto a la transparencia, auditorías de riesgo y otros detalles técnicos para las empresas que desarrollan la tecnología. Esto luego se presentaría a los líderes del G7 como una propuesta transatlántica conjunta en el otoño.
Con años de reglas obligatorias de IA, un código voluntario es, en el mejor de los casos, un recurso provisional hasta que se establezca una legislación vinculante.
“Estamos de acuerdo en que trabajaremos en esto, involucraremos a colegas para integrarnos en el proceso del G7”, dijo Vestager a los periodistas.
Si ese esfuerzo falla, potencialmente podría dejar una oportunidad para que China promueva su propia versión autoritaria de la tecnología en todo el mundo.
Donde Europa y Estados Unidos divergen
Sin embargo, sigue existiendo una brecha masiva en forma de IA entre Washington y Bruselas sobre las reglas.
La UE, respaldada por su historial de escribir gran parte del libro de reglas digitales que ahora domina el mundo occidental, está impulsando reglas obligatorias para la inteligencia artificial que obligarían a las empresas a no usar la tecnología de una manera «dañina» predefinida. Para fines de diciembre, los funcionarios europeos esperan completar la ley de inteligencia artificial de la UE, luego de duras negociaciones políticas que se prolongaron durante más de dos años.
Pero los países europeos y los miembros del Parlamento Europeo, que deben acordar un texto final, no están de acuerdo en algunos aspectos clave del texto, incluido el reconocimiento facial en lugares públicos. Mientras tanto, la industria de la tecnología se ha resistido a lo que considera una supervisión demasiado onerosa de la IA generativa.
El esfuerzo en Bruselas ha llevado a la industria de EE. UU., que invierte miles de millones en IA, a mantener sus ojos en la UE en busca de una legislación concreta, muy similar a lo que sucedió cuando el bloque comenzó a legislar sobre la privacidad y el contenido en línea.
Estados Unidos, por otro lado, prefiere un enfoque más pasivo, confiando en que la industria ofrezca sus propias garantías. Las divisiones políticas en curso en el Congreso hacen que sea poco probable que se apruebe una legislación específica sobre IA antes de las elecciones estadounidenses del próximo año.
La administración Biden ha hecho de la colaboración internacional en IA una prioridad política, particularmente porque la mayoría de las principales empresas de IA como Google, Microsoft y OpenAI tienen su sede en los Estados Unidos. Para Washington, ayudar a estas empresas a competir con los rivales de China también es una prioridad de seguridad nacional. .
En las últimas semanas, la Casa Blanca abrió sus puertas a la industria y a principios de mayo recibió a los directores ejecutivos de cuatro importantes empresas de IA para una discusión privada. Ha encabezado los esfuerzos para lograr que las empresas de tecnología se comprometan voluntariamente con las reglas de comportamiento responsable. Y en términos de establecer estándares internacionales, impulsó el marco de gestión de riesgos desarrollado en los Estados Unidos por los Institutos Nacionales de Estándares y Tecnología.
Construyendo el enfoque occidental
El miércoles, altos funcionarios de EE. UU. y la UE intentaron solucionar esos defectos con un enfoque que se basaría en los principios globales existentes propuestos por la Organización para la Cooperación y el Desarrollo Económicos. Su objetivo era ir más allá que la OCDE al señalar específicamente los peligros potenciales de la IA generativa.
Un acuerdo marco brindaría a las empresas más certeza sobre cómo esta tecnología emergente será controlada por los dos bloques económicos occidentales más grandes. El objetivo es acelerar el establecimiento de un código voluntario, aunque probablemente se basará en las normas europeas de IA existentes y no está claro si los funcionarios y las empresas estadounidenses apoyarán tal enfoque.
«La claridad regulatoria será algo bueno», dijo Sam Altman, director ejecutivo de OpenAI, la empresa tecnológica detrás de ChatGPT, en un evento en París la semana pasada, durante una gira europea que también incluyó Varsovia, Madrid, Múnich y Londres. El jefe de tecnología se reunió virtualmente con Vestager el miércoles durante el cual discutieron el código de conducta voluntario propuesto.
Sin embargo, uno se pregunta si la UE habla con una sola voz.
Algunos funcionarios en Bruselas esperan adelantarse a algunas de las reglas del bloque en un llamado pacto de IA. un compromiso voluntario separado que las empresas pueden suscribir en relación con la próxima ley de IA de la UE que probablemente entrará en vigor en 2026.
Thierry Breton, Comisario de Mercado Interior de la UE, dijo que cualquier coordinación regulatoria con socios de ideas afines, como EE. UU., se basaría en el enfoque existente de Europa. «Si otros quieren inspirarse, por supuesto que son bienvenidos», dijo.