Un contrato de 200 millones de dólares, ¿quién dice que no lo quiere? ¿Esta empresa de IA está loca?

La situación es la siguiente, el ejército de EE. UU. quiere clasificar a Anthropic (la empresa que desarrolla Claude) como un 'riesgo en la cadena de suministro', pero el juez intervino directamente y lo detuvo, primero se espera una pausa de siete días.
¿Cuál es el desencadenante? Anthropic se niega rotundamente a levantar sus restricciones: no permitirá que el ejército estadounidense use IA para una vigilancia masiva, ni permitirá que la IA participe en combates autónomos letales.
En pocas palabras, esta empresa prefiere perder contratos antes que ver su tecnología convertirse en una herramienta para matar.

Dicho de manera honesta, ahora las empresas de IA están ansiosas por colaborar con el ejército, las acciones de Anthropic en esta ocasión, en cambio, hacen que la gente lo vea con otros ojos.
Por muy fuerte que sea la tecnología, siempre debe haber una línea base. Este dinero que se gana es agradable, pero cómo se escriba la historia en el futuro, eso es difícil de decir.
De todos modos, en estos siete días, ambos lados tendrán que discutir un poco más, nosotros solo veremos el espectáculo.

#AI #Anthropic #五角大楼 #科技伦理 #Claude