
par kla.tv
Un différend a éclaté entre le Pentagone et la société d'IA Anthropic concernant l'utilisation de logiciels d'IA au sein de l'armée américaine. Le Pentagone souhaite utiliser le modèle d'IA Claude, développé par Anthropic, à des fins de surveillance de masse et pour des opérations militaires automatisées.
Fin février 2026, le PDG d'Anthropic, Dario Amodei, a rejeté la demande du Pentagone. Selon Anthropic, la surveillance de masse assistée par l'IA constitue un risque majeur pour nos droits fondamentaux, et les armes entièrement autonomes n'offrent aucune garantie fiable face à des décisions erronées. Ces armes entièrement autonomes ne connaissent pas les émotions humaines. Quiconque se retrouve dans la ligne de mire d'un "robot tueur" n'a pratiquement aucune chance. Cette émission montre que la guerre automatisée entraîne d'immenses pertes civiles, des destructions et des erreurs. Kla.TV appelle tous les dirigeants et développeurs d'IA du monde à s'opposer ensemble aux exigences actuelles du ministère de la Guerre et à refuser toute participation à ces guerres brutales
[lire la suite]
kla.tvsource : kla TV