Siete empresas de inteligencia artificial acuerdan salvaguardas, dice la administración de Biden

Siete empresas líderes de inteligencia artificial en los Estados Unidos acordaron salvaguardas voluntarias en el desarrollo de la tecnología, anunció la Casa Blanca el viernes, y se comprometieron a gestionar los riesgos de las nuevas herramientas incluso cuando compiten por el potencial de la inteligencia artificial.

Siete empresas (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) anunciaron formalmente su compromiso con nuevos estándares en las áreas de seguridad y confianza en una reunión con el presidente Biden en la Casa Blanca el viernes por la tarde.

En breves declaraciones desde la Sala Roosevelt de la Casa Blanca, el Sr. “Necesitamos ser claros y conscientes de las amenazas que las tecnologías emergentes representan para nuestra democracia y nuestros valores”, dijo Biden.

“Es una responsabilidad seria. Tenemos que hacerlo bien», dijo, y agregó que los ejecutivos de las empresas. «Y hay una enorme, enorme energía al alza».

El anuncio se produce cuando las empresas compiten para superarse entre sí con versiones de IA que ofrecen nuevas y poderosas formas de crear texto, fotos, música y video sin intervención humana. Pero los avances tecnológicos han alimentado los temores de la difusión de información errónea y advertencias terribles sobre el «peligro de extinción» a medida que evolucionan las computadoras autoconscientes.

Las protecciones voluntarias son solo un paso inicial y temporal a medida que los gobiernos de Washington y de todo el mundo se apresuran a establecer el marco legal y regulatorio para el desarrollo de la inteligencia artificial. Los acuerdos incluyen pruebas de productos en busca de riesgos de seguridad y el uso de marcas de agua para garantizar que los consumidores puedan detectar productos generados por IA.

El anuncio del viernes refleja la urgencia de la administración de Biden y los legisladores para responder a la tecnología en rápida evolución, incluso cuando los legisladores luchan por regular las redes sociales y otras tecnologías.

«En las próximas semanas, continuaré tomando medidas ejecutivas para ayudar a encaminar a Estados Unidos hacia la innovación responsable», dijo el Sr. Biden dijo. «Y vamos a trabajar con ambas partes para desarrollar la legislación y los reglamentos apropiados».

La Casa Blanca no proporcionó detalles de una próxima orden ejecutiva presidencial que abordaría un tema más amplio de restricción de la capacidad de China y otros competidores para adquirir nuevos programas de inteligencia artificial o los componentes utilizados para construirlos.

READ  Después de que Las Vegas Sphere anunciara una pérdida de 100 millones de dólares, el valor de su propietario

Esto incluye nuevas restricciones sobre semiconductores avanzados y restricciones sobre la exportación de modelos a gran escala. Son difíciles de controlar: la mayoría del software puede caber en una memoria USB y comprimirse.

Una orden ejecutiva probablemente provocaría más oposición de la industria que los compromisos voluntarios del viernes, que según los expertos ya se reflejaban en las prácticas de las empresas involucradas. Las promesas no obstaculizan los proyectos de las empresas de IA ni el desarrollo de sus tecnologías. Como obligaciones voluntarias, los reguladores gubernamentales no las hacen cumplir.

Nick Clegg, jefe de asuntos globales de la empresa matriz de Facebook, Meta, dijo en un comunicado: «Estamos encantados de hacer estos compromisos voluntarios junto con otros en el sector. Son un primer paso importante para garantizar que se establezcan organismos de control responsables para la IA, y crean un modelo a seguir para otros gobiernos».

Como parte de las medidas de seguridad, las empresas acordaron:

  • Pruebas de seguridad de sus productos de IA, en parte compartiendo información sobre sus productos con expertos independientes y gobiernos y otros que intentan gestionar los riesgos de la tecnología.

  • Garantizar que los consumidores puedan identificar el contenido generado por IA mediante la implementación de marcas de agua u otros medios para identificar el contenido generado.

  • Informar públicamente de forma regular sobre las capacidades y limitaciones de sus sistemas, incluida la evidencia de riesgos de seguridad y sesgo.

  • Usar herramientas avanzadas de inteligencia artificial para abordar los mayores desafíos de la sociedad, como curar el cáncer y combatir el cambio climático.

  • Realizar investigaciones sobre los riesgos de sesgo, discriminación e invasión de la privacidad a partir de la difusión de herramientas de IA.

En un comunicado que anuncia los acuerdos, la administración de Biden dijo que las empresas deben asegurarse de que «la innovación no se produzca a expensas de los derechos y la seguridad de los estadounidenses».

«Las empresas que desarrollan estas tecnologías emergentes tienen la responsabilidad de garantizar que sus productos sean seguros», dijo la administración en un comunicado.

Brad Smith, jefe de Microsoft y uno de los ejecutivos que asistieron a la reunión de la Casa Blanca, dijo que su empresa respaldaba la seguridad voluntaria.

READ  El enfoque de los Chiefs está en la lista, no en perseguir a Lamar Jackson

“Avanzando rápidamente, los compromisos de la Casa Blanca crean una base que ayudará a garantizar que la promesa de AI supere sus riesgos”, dijo el Sr. Smith dijo.

Anna Mahanju, vicepresidenta de asuntos globales de OpenAI, lo describió como «parte de nuestra colaboración continua con gobiernos, organizaciones de la sociedad civil y otros en todo el mundo para promover la gobernanza de la IA».

Para las empresas, los estándares descritos el viernes tienen dos propósitos: un intento de prevenir o dar forma a los movimientos legislativos y regulatorios hacia el autocontrol, y una señal de que están lidiando con esta nueva tecnología de manera reflexiva y proactiva.

Pero las reglas que acuerdan son a menudo el mínimo común denominador y cada organización puede interpretarlas de manera diferente. Por ejemplo, las empresas están comprometidas con una ciberseguridad estricta en torno a los datos y el código utilizados para construir los «modelos de lenguaje» a partir de los cuales se construyen los programas de IA generativa. Pero no hay detalles sobre lo que eso significa, y las empresas estarán dispuestas a proteger su propiedad intelectual de todos modos.

Incluso las empresas más cuidadosas son vulnerables. Microsoft, Sr. Una de las empresas que asistió a un evento en la Casa Blanca con Biden la semana pasada luchó contra la piratería orquestada por el gobierno chino de los correos electrónicos privados de los funcionarios estadounidenses que tratan con China. China parece haber robado u obtenido de alguna manera la «clave privada» de Microsoft, la clave para autenticar los correos electrónicos, una de las piezas de código mejor protegidas de la empresa.

Como resultado, es poco probable que el acuerdo retrase los esfuerzos para legislar e imponer restricciones a la tecnología emergente.

Paul Barrett, subdirector del Centro Stern para Empresas y Derechos Humanos de la Universidad de Nueva York, dijo que se debe hacer más para proteger a la sociedad de los peligros que plantea la inteligencia artificial.

«Los compromisos voluntarios anunciados hoy no se pueden hacer cumplir, por lo que es imperativo que el Congreso y la Casa Blanca trabajen juntos para promulgar de inmediato una legislación que requiera transparencia, protección de la privacidad y acelerar la investigación sobre la amplia gama de riesgos que plantea la IA», dijo el Sr. Barrett dijo en un comunicado.

READ  Florida estafa a LSU, forzando un Juego 3 por el título

Los reguladores europeos están preparados para adoptar leyes de IA a finales de este año, lo que llevó a muchas empresas a promover las regulaciones estadounidenses. Varios legisladores han presentado proyectos de ley que incluyen otorgar licencias a empresas de IA para publicar sus tecnologías, crear una agencia federal para supervisar la industria y requisitos de privacidad de datos. Pero los miembros del Congreso no están de acuerdo con las reglas y se apresuran a educarse sobre la tecnología.

Los legisladores están lidiando con cómo abordar el auge de la tecnología de inteligencia artificial, algunos enfocados en los riesgos para los consumidores y otros profundamente preocupados por quedarse atrás de los rivales, particularmente China, en la carrera por dominar el campo.

Esta semana, el Comité Selecto de Competencia Estratégica con China de la Cámara de Representantes envió cartas bipartidistas a empresas de capital de riesgo con sede en EE. UU. exigiendo que rindan cuentas de sus inversiones en empresas chinas de IA y semiconductores. Las cartas llegan en los meses posteriores a que varios paneles de la Cámara y el Senado cuestionaron a los empresarios y críticos más influyentes de la industria de la IA para decidir qué tipo de protecciones e incentivos legales debería explorar el Congreso.

Muchos de esos testigos, incluido Sam Altman de la empresa emergente OpenAI de San Francisco, señalaron el potencial de que la nueva tecnología cause daños innecesarios y apelaron a los legisladores para que regulen la industria de la IA. Pero esa regulación avanza lentamente en el Congreso, donde muchos legisladores aún luchan por comprender exactamente qué es la tecnología de IA.

En un esfuerzo por mejorar la comprensión de los legisladores, el Senador Chuck Schumer, demócrata de Nueva York, lanzó una serie de sesiones de escucha para legisladores este verano para escuchar a funcionarios gubernamentales y expertos sobre los beneficios y riesgos de la inteligencia artificial en muchos campos.

Señor. Schumer también redactó una enmienda a la versión del Senado del proyecto de ley de autorización de defensa de este año.

Karoon Demirjian Informe contribuido desde Washington.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *