Acuerdos con el ministerio de Defensa de Donald Trump
Las declaraciones del director de Anthropic llegan en un momento convulso para el ecosistema de inteligencia artificial en Estados Unidos. Recientemente, el presidente rompió relaciones con esta empresa, que desarrolla Claude, después de que el CEO, Amodei, estableciera límites sobre el uso militar de su tecnología. Esta decisión provocó que el gobierno de EE.UU. buscara acuerdos con OpenAI, que también expresó publicamente sus preocupaciones.
En este contexto, Amodei no se guardó nada y calificó la postura de OpenAI como un simple juego de imagen. Durante una comunicación interna, descalificó la relación de OpenAI con el Pentágono, describiéndola como un “teatro de seguridad”.
La diferencia principal entre ambas compañías radica en que OpenAI aceptó un acuerdo con el Departamento de Defensa, mientras que Anthropic optó por no hacerlo. Amodei enfatizó: “Ellos querían calmar a sus empleados, nosotros preferimos prevenir abusos”.
Problemas con el Pentágono
La semana pasada, Anthropic y el Departamento de Defensa no lograron llegar a un nuevo acuerdo después de que las fuerzas armadas exigieran acceso ilimitado a la tecnología de la empresa. Aunque Anthropic ya tenía un contrato de 200 millones de dólares con el Pentágono, las negociaciones se estancaron cuando la empresa pidió garantías de que su inteligencia artificial no sería utilizada para vigilancia masiva en EE.UU. ni para el desarrollo de armamento autónomo.
Por su parte, el Pentágono sí avanzó con OpenAI. Según dijo Altman, su contrato incluiría salvaguardas similares a las que Anthropic había propuesto como líneas rojas. Sin embargo, Amodei cuestionó abiertamente esta versión, acusando a OpenAI de emitir “mentiras descaradas” y afirmando que Altman se presenta falsamente como un pacificador.
Debate sobre “usos legales”
Un tema candente en esta controversia es el alcance de los llamados “usos legales” de la inteligencia artificial. Anthropic rechazó la exigencia del Departamento de Defensa de que su tecnología estuviera disponible para “cualquier uso legal”. Mientras tanto, OpenAI confirmó en su blog que su contrato acepta el uso de sus sistemas de IA para “todos los fines legales”.
Sin embargo, el problema que apuntan los críticos es que el concepto de legalidad puede cambiar. Lo que hoy es ilegal puede volverse aceptable por modificaciones en la legislación o nuevas interpretaciones judiciales.
Impacto en la opinión pública
La disputa también ha encontrado eco en el público. Tras conocerse el acuerdo entre OpenAI y el Pentágono, la aplicación ChatGPT vio cómo sus desinstalaciones se dispararon un 295%, según recientes datos. Este movimiento parece haber beneficiado indirectamente a Claude, el asistente de inteligencia artificial de Anthropic, que ha visto aumentar sus descargas y posiciones en la App Store.
Amodei incluso mencionó este fenómeno en su comunicación. “Creo que este intento de manipulación no está funcionando ni con el público ni con los medios, donde muchos ven el acuerdo de OpenAI como sospechoso. Ahora somos los héroes y ocupamos el segundo lugar en la App Store”, bromeó.
La respuesta de OpenAI
Después de que Altman, el director de OpenAI, publicara un mensaje sobre la relación de su empresa con el Departamento de Defensa, Amodei respondió. Altman afirmó que, conforme a las leyes vigentes, su sistema de IA no se utilizaría para la vigilancia de ciudadanos estadounidenses.
Aseguró que es fundamental proteger las libertades civiles y resaltó que por eso querían dejarlo claro, incluso en la obtención de información comercial. Además, Altman subrayó que hay áreas para las cuales la tecnología aún no está lista, y que es crucial labrar una relación clara entre gobiernos e iniciativas de IA para evitar desastres futuros.
La conversación sigue abierta y el clima es tenso. A medida que las empresas de tecnología navegan por estos waters inciertos, la atención del público solo parece aumentar.