Un grupo de más de 600 trabajadores, incluyendo investigadores de élite de Google DeepMind, advierten que el uso de modelos en operaciones militares clasificadas podría derivar en errores catastróficos y el desarrollo de armas autónomas.
La tensión interna en Google ha alcanzado un punto crítico. Este lunes 27 de abril, cientos de empleados enviaron una carta abierta dirigida a Sundar Pichai, CEO de la compañía, exigiendo la cancelación inmediata de las negociaciones con el Departamento de Defensa de los Estados Unidos (Pentágono) para el uso de inteligencia artificial en «cargas de trabajo clasificadas».
La misiva, que cuenta con la firma de directores y científicos de alto nivel, surge tras filtrarse que Google busca un acuerdo similar al que OpenAI concretó recientemente, permitiendo que sus modelos de lenguaje sean utilizados en infraestructuras militares bajo un régimen de secreto que, según los empleados, impide cualquier tipo de supervisión ética.
El argumento central de los trabajadores es técnico y moral. Al tratarse de proyectos clasificados, los propios desarrolladores de la IA no tendrían forma de saber cómo se está aplicando su tecnología.
«Como expertos en este campo, entendemos que la IA tiene el potencial de ser utilizada para fines inhumanos, incluyendo el desarrollo de armas autónomas letales, la vigilancia masiva y la supresión de las libertades civiles«, advierte la carta.
Además, los empleados subrayan que los sistemas actuales son propensos a sesgos y errores de cálculo. En un entorno civil, un error puede ser una alucinación de texto; en un contexto militar, advierten, las consecuencias serían «irreversibles y catastróficas».
Este conflicto no ocurre en el vacío. El Pentágono ha endurecido su postura frente a las empresas de IA. En febrero de este año, el Departamento de Defensa rompió lazos con Anthropic (creadora de Claude) luego de que la empresa intentara imponer cláusulas contractuales que prohibieran explícitamente el uso de su tecnología para vigilancia masiva o armamento.
Tras la salida de Anthropic, Google y OpenAI han emergido como los principales candidatos para llenar ese vacío, lo que ha generado una «rebelión de conciencia» dentro de las oficinas de Mountain View. Los empleados temen que Google esté sacrificando sus Principios de IA (establecidos tras las protestas del Proyecto Maven en 2018) para no perder terreno frente a sus competidores en contratos multimillonarios.
La carta finaliza con una advertencia sobre el daño al modelo de negocio de la empresa. Los firmantes aseguran que colaborar en proyectos de guerra socavará la capacidad de Google para atraer talento joven y dañará la confianza de los usuarios globales, quienes podrían empezar a ver las herramientas de Google no como aliados de productividad, sino como componentes de un aparato de vigilancia estatal.
Hasta el momento, ni Sundar Pichai ni la oficina de prensa de Google han emitido una respuesta oficial a la petición de sus trabajadores.
