Trabajadores de OpenAI, Anthropic y Google DeepMind advierten de los peligros de la IA

Algunos empleados actuales y anteriores de OpenAI y otras importantes empresas de inteligencia artificial advirtieron en una carta el martes que la tecnología plantea importantes riesgos para la humanidad.

La carta, firmada por 13 personas, incluidos empleados actuales y anteriores de Anthropic y DeepMind de Google, decía que la IA podría aumentar la desigualdad, aumentar la desinformación y hacer que los sistemas de IA sean autónomos y potencialmente letales. Si bien estos riesgos pueden mitigarse, las empresas controladas por software tienen «fuertes incentivos financieros» para limitar la supervisión, dijeron.

Como la IA está poco regulada y la responsabilidad recae en la empresa, los empleados han pedido a las empresas que eliminen los acuerdos de confidencialidad y brinden protección a los trabajadores.

La medida se produce cuando los empleados de OpenAI se enfrentan a despidos. Varios críticos, incluido el cofundador de OpenAI, Ilya Sutzkever, y el investigador senior John Leek, han visto cambios importantes, condenados por líderes de la empresa que argumentan que algunos empleados están buscando ganancias a expensas de hacer que las tecnologías de OpenAI sean más seguras.

Daniel Cocotajlo, un ex empleado de OpenAI, dijo que dejó la startup porque la empresa ignoraba los riesgos de la inteligencia artificial.

quedar atrapado

Cuentos cortos para información rápida.

«Mientras persiguen la inteligencia artificial general en particular, he perdido la fe en que actuarán responsablemente», dijo en un comunicado, refiriéndose a una palabra de moda que se refiere a computadoras que igualan el poder del cerebro humano.

«Ellos y otros han adoptado un enfoque de ‘moverse rápido y romper cosas’, y eso es lo opuesto a lo que necesita esta tecnología poderosa y poco entendida».

READ  La reaparición de la bandera 'Roaring Kitty' levanta GameStop y provoca un rally de acciones de memes

Liz Bourgeois, portavoz de OpenAI, dijo que la compañía está de acuerdo en que «un debate sólido es importante dada la importancia de esta tecnología». Los representantes de Anthropic y Google no respondieron de inmediato a una solicitud de comentarios.

Al carecer de supervisión gubernamental, los trabajadores de IA son las «pocas personas» a las que las empresas pueden responsabilizar, dijeron los empleados. Señalaron que se ven obstaculizados por «amplios acuerdos de confidencialidad» y que las protecciones ordinarias a los denunciantes son «inadecuadas» porque se centran en actividades ilegales y los riesgos sobre los que advierten aún no están contenidos.

La carta pide a las empresas de IA que se comprometan con cuatro principios para permitir una mayor transparencia y protección a los denunciantes. Esos principios incluyen el compromiso de no celebrar ni implementar acuerdos que prohíban la crítica de riesgos; Un llamado para establecer un proceso anónimo para que los empleados actuales y anteriores planteen inquietudes; apoyar una cultura crítica; y una promesa de no tomar represalias contra empleados actuales y anteriores que compartan información clasificada para generar alarmas «después de que otros procesos hayan fallado».

El Washington Post informó en diciembre que altos líderes de OpenAI expresaron temores de represalias por parte del director ejecutivo Sam Altman, advertencias que precedieron al derrocamiento temporal del líder. En una entrevista reciente en un podcast, Helen Donner, ex miembro de la junta directiva de OpenAI, dijo que parte de la decisión de la organización sin fines de lucro de despedir a Altman como director ejecutivo a fines del año pasado fue una falta de comunicación honesta sobre seguridad.

READ  La carrera de recaudación de fondos de la campaña de Trump en las primeras semanas de 2024 ha sido relativamente débil

«Nos dio información falsa sobre la pequeña cantidad de procesos de seguridad formales que la empresa tenía implementados, lo que significaba que era esencialmente imposible para la junta saber qué tan bien estaban funcionando esos procesos de seguridad», dijo.Presentación TED sobre IA«En Mayo.

Luminarias de la IA, entre ellas Yoshua Bengio y Geoffrey Hinton, considerados los «padrinos» de la IA, y el renombrado científico informático Stuart Russell respaldaron la carta.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *