24/12/2024 investigaction.net  8min #264384

L'organisation qui fournit Chatgpt utilise sa technologie pour tuer

Nuvpreet Kalra

AFP

Au départ, OpenAI est une organisation à but non lucratif qui notamment permis de populariser l'utilisation de l'intelligence artificielle avec ChatGPT. Mais voilà qu'elle renonce à ses principes pour s'investir dans l'industrie de l'armement. Et c'est un tournant alarmant. Explications. (I'A)

Au début du mois, la société qui nous propose ChatGPT  a annoncé son partenariat avec Anduril, une entreprise d'armement basée en Californie. Ensemble, ils entendent produire des armes bénéficiant de l'intelligence artificielle (IA). Testé à la fin du mois de novembre en Californie, le système OpenAI-Anduril permet le partage de données entre des parties externes pour la prise de décision sur le champ de bataille. Il s'inscrit parfaitement dans les plans de l'armée US et d'OpenAI visant à normaliser l'utilisation de l'IA sur le champ de bataille.

Anduril, basée à Costa Mesa, fabrique des drones, des missiles et des systèmes radars alimentés par l'IA. Cela comprend notamment des tours de surveillance -  les systèmes Sentry - actuellement utilisés dans les bases militaires US du monde entier ainsi qu'à la frontière entre les États-Unis et le Mexique ou encore sur  les côtes britanniques pour détecter les bateaux de migrants. Le 3 décembre, OpenAI a conclu  un contrat de trois ans avec le Pentagone pour un système qui fournira aux soldats des solutions d'IA pendant les combats.

Ravaler ses principes

En janvier déjà, OpenAI avait modifié sa charte définissant sa politique d'utilisation. L'entreprise  avait supprimé l'interdiction des « activités présentant un risque élevé de dommages physiques », qui incluait spécifiquement « l'armée et la guerre » ainsi que « le développement d'armes ». Moins d'une semaine après cette modification,  l'entreprise annonçait un partenariat avec le Pentagone dans le domaine de la cybersécurité.

Bien qu'OpenAI s'était déjà affranchie de l'interdiction de fabriquer des armes, son entrée dans l'industrie de la guerre reste en totale contradiction avec  sa propre charte. En effet, elle affirme construire une « AGI [intelligence artificielle générative] sûre et bénéfique » qui ne « nuise pas à l'humanité ». C'est tout simplement risible alors qu'elle utilise la technologie pour... tuer. Ainsi, ChatGPT pourrait très bien, et le fera probablement bientôt, écrire le code d'une arme automatisée, analyser des informations en vue d'attentats à la bombe ou contribuer à des invasions et à des occupations.

Nous devrions tous être effrayés par cette utilisation de l'IA à des fins de mort et de destruction. Mais ce n'est pas nouveau. Israël et les États-Unis testent et utilisent l'IA en Palestine depuis des années. En fait, Hébron a été baptisée « ville intelligente », car l'occupation impose sa tyrannie par le biais de capteurs de mouvement et de chaleur, de technologies de reconnaissance faciale et de vidéosurveillance. Au centre de cette surveillance oppressive se trouve  le système Blue Wolf, un outil d'intelligence artificielle qui scanne les visages des Palestiniens lorsqu'ils sont photographiés par des soldats de l'occupation israélienne, et qui renvoie à une base de données biométriques dans laquelle sont stockées les informations les concernant. Une fois la photo introduite dans le système, chaque personne est classée selon un code de couleur basé sur son « niveau de menace » perçu, ce qui permet de déterminer si le soldat doit la laisser passer ou l'arrêter.  Selon les révélations du Washington Post (2021), les soldats de l'occupation sont récompensés en fonction du nombre de photos prises pour ce qu'ils ont appelé le « Facebook des Palestiniens ».

Nouvelle guerre froide

La technologie de guerre d'OpenAI intervient alors que l'administration Biden fait pression pour que les États-Unis utilisent la technologie afin de « remplir des objectifs de sécurité nationale ». C'est d'ailleurs une partie du titre  d'un mémorandum de la Maison-Blanche publié en octobre de cette année, appelant à un développement rapide de l'intelligence artificielle « en particulier dans le contexte des systèmes de sécurité nationale ».

Sans nommer explicitement la Chine, il est clair que la perception d'une « course à l'armement en matière d'IA » avec Pékin est également une motivation centrale de l'administration Biden dans ces démarches. Il ne s'agit pas seulement d'armes de guerre, mais aussi d'une course au développement de la technologie en général.

Au début du mois, les États-Unis  ont interdit l'exportation de puces HBM vers la Chine, un composant essentiel de l'IA et des unités de traitement graphique (GPU) de haut niveau. L'ancien PDG de Google, Eric Schmidt, a averti que la Chine avait deux ou trois ans d'avance sur les États-Unis en matière d'IA, ce qui constitue un changement majeur par rapport aux déclarations qu'il avait faites au début de l'année, lorsqu'il avait fait remarquer que les États-Unis étaient en avance sur la Chine. Lorsqu'il déclare qu'il existe une « 𝕏 matrice d'escalade des menaces » en matière de développement de l'IA, il révèle que les États-Unis ne voient dans cette technologie qu'un outil de guerre et un moyen d'affirmer leur hégémonie. L'IA est la dernière et dangereuse provocation des États-Unis qui agitent l'épouvantail chinois, ne supportant pas d'être devancés.

Faisant écho au mémorandum de la Maison-Blanche, OpenAI  a publié un communiqué reprenant les mêmes thèmes sur les « valeurs démocratiques » et la « sécurité nationale ». Mais qu'y a-t-il de démocratique dans le fait qu'une entreprise développe une technologie pour mieux cibler et bombarder les gens ? Qui est sécurisé par la collecte d'informations visant à mieux déterminer la technologie de guerre ? Cela révèle certainement l'alignement de l'entreprise sur la rhétorique anti-chinoise et les justifications impérialistes de l'administration Biden. OpenAI est une entreprise qui a promu les systèmes d'intelligence artificielle générative au sein de la société en général. Il est profondément alarmant de constater qu'elle a renoncé à tous ses principes pour se rallier au Pentagone. S'il n'est pas surprenant que des entreprises comme Palantir ou même Anduril utilisent l'IA pour faire la guerre, nous devrions nous attendre à mieux de la part d'entreprises comme OpenAI, une organisation à but non lucratif censée être investie d'une mission.

L'IA est déjà utilisée pour rationaliser les meurtres : à la frontière entre les États-Unis et le Mexique, en Palestine et dans les avant-postes impériaux US à travers le monde. Alors que les systèmes d'IA semblent innocemment intégrés à notre vie quotidienne, des moteurs de recherche aux plateformes de streaming musical, nous devons garder à l'esprit que ces mêmes entreprises utilisent la même technologie à des fins meurtrières. Pendant que ChatGPT peut vous suggérer dix façons de protester, il est probablement entraîné à tuer, mieux et plus vite.

De la machine de guerre  à notre planète, l'IA entre les mains des impérialistes US ne signifie rien d'autre que plus de profits pour eux et plus de dévastation et de destruction pour nous tous.

Nuvpreet Kalra est productrice de contenu numérique pour CODEPINK. Nuvpreet a obtenu une licence en politique et sociologie à l'université de Cambridge et une maîtrise en égalité sur Internet à l'université des arts de Londres. En tant qu'étudiante, elle a participé à des mouvements de désinvestissement et de décolonisation, ainsi qu'à des groupes antiracistes et anti-impérialistes. Nuvpreet a rejoint CODEPINK en tant que stagiaire en 2023, et produit maintenant du contenu numérique et des médias sociaux. En Angleterre, elle s'organise avec des groupes pour la libération palestinienne, l'abolition et l'anti-impérialisme.

Tim Biondo est le responsable des communications numériques pour CODEPINK. Il est titulaire d'une licence en études sur la paix de l'université George Washington.

Source originale:  Counter Punch
Traduit de l'anglais par GL pour  Investig'Action

 investigaction.net