03/04/2023 francesoir.fr  6min #226530

 Pourquoi l'Intelligence Artificielle ne remplace pas les discussions entre humains et le lien social informatif

Intelligence Artificielle : Musk et des personnalités It* exigent un moratoire sur la recherche, qui « pourrait avoir des effets catastrophiques sur la société »

France-Soir

Musk appelle à un moratoire sur la recherche à propos de l'IA.

AFP/Archives - Philip Pacheco

TECHNOLOGIES - La prolifération des outils d'Intelligence Artificielle (IA) depuis le lancement de ChatGPT**, puis de GPT4, suscite une profonde inquiétude. Des centaines de personnalités du monde de la tech***, dont le milliardaire Elon Musk, ont soulevé dans une pétition le danger que représente l'IA pour "l'humanité", "les sociétés" et "les démocraties". Les signataires ont appelé mercredi 29 mars 2023 à un moratoire sur la recherche autour de cette technologie pour une durée de 6 mois, en attendant la mise en place de nouvelles autorités réglementaires et des techniques de surveillance des systèmes IA.

*IT pour Information Technology ou technologies de l'information. Elles désignent l'usage des ordinateurs, du stockage des données, des réseaux et des appareils numériques, des infrastructures et des processus afin de créer, traiter, stocker et échanger des données électroniques. L'aspect de la sécurisation de ces dernières fait aussi partie des IT.

**Que veut dire ChatGPT ? "Chat" veut dire "Discussion" en anglais, à propos des échanges de messages instantanés sur internet. "GPT" est un acronyme qui signifie "Generative Pre-Trained Transformer", soit "Transformateur génératif pré-entraîné". Le principe ? Pouvoir discuter non pas avec d'autres internautes en ligne mais avec une "Intelligence Artificielle" (IA) qui, en quelque sorte, se comporterait "comme un être humain". GPT4 est sa version mise à jour.

***Le monde de la tech regroupe les secteurs et métiers liés aux IT : stockage des données en ligne, cybersécurité, compilation des données électroniques ("data science"), développement de sites internet ou de logiciels, il s'agit au sens large du secteur des nouvelles technologies.

Dans une lettre ouverte publiée sur  Futureoflife.org (une association de volontaires basée à Boston, États-Unis cherchant à diminuer les risques existentiels menaçant l'humanité, en particulier ceux provenant de l'intelligence artificielle), des noms comme Steve Wozniak, co-fondateur d'Apple, Jaan Tallinn, co-fondateur de Skype et Yoshua Bengio, pionnier canadien de l'IA, alertent contre "les risques des systèmes IA pour la société et l'humanité". 

"L'IA moderne pourrait avoir des effets catastrophiques sur la société (...) et devrait être planifiée et gérée avec des soins et des ressources appropriées", expliquent-ils. Les auteurs de cette pétition dénoncent une "course effrénée" à laquelle se sont adonnés des laboratoires IA "pour développer et déployer des esprits numériques plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prévoir ou contrôler de façon fiable". 

Elon Musk et ses homologues estiment que les puissants systèmes basés sur l'IA ne devraient pas être créés sans la ferme conviction que "leurs effets seront positifs et que leurs risques pourront être gérables". Une telle approche ne peut être assurée que par un organisme indépendant,  comme le soulignait en février 2023 Sam Altman, co-fondateur d'OpenAI, créateur de ChatGPT.

Des "perturbations économiques et politiques dramatiques"

Tel est l'un des enjeux du moratoire auquel appellent ces dirigeants tech dans  cette pétition. Les laboratoires, estiment-ils, doivent "suspendre immédiatement, pour une durée de 6 mois, l'élaboration de systèmes plus puissants que GPT-4".

Le but est de permettre aux acteurs clés tout comme les gouvernements d'élaborer un ensemble de "protocoles de sécurité partagés" devant régir la conception et le développement de l'intelligence artificielle.

"Cela ne signifie pas une pause dans le développement de l'IA en général", précise-t-on, mais une "pause publique et vérifiable" dans cette "course dangereuse". La recherche dans l'IA devrait plutôt se recentrer sur des conceptions "plus précises, sûres, interprétables, transparentes, robustes, alignées, dignes de confiance et loyales". 

Ces systèmes sont également une menace pour la démocratie et "peuvent provoquer des perturbations économiques et politiques dramatiques. Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonge ? Devons-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour nous surpasser, nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ?", s'interroge-t-on.

"De telles décisions ne doivent pas être déléguées à des dirigeants technologiques non élus", mais à des États capables de gouverner la prolifération des outils IA, à travers des organismes de réglementation dédiés, des systèmes de surveillance et un financement public pour la recherche sur la sécurité en IA, lit-on encore.

"La société n'est pas prête"

Cette pétition intervient à point nommé. Ces dernières semaines ont été marquées par la diffusion de contenus générés par l'IA utilisés sur les réseaux sociaux à des fins de manipulations et de propagandes. Les craintes de ces "dirigeants tech" corroborent celles de la police européenne qui a averti le 27 mars dernier contre le détournement, par des réseaux criminels, de ces outils à des fins de désinformation et de cybercriminalité.

L'un des signataires de cette pétition, Yoshua Bengio, estimait lors d'une conférence que "la société n'est pas prête à faire face à cette puissance-là, au potentiel de manipulation des populations, par exemple, qui pourrait mettre en danger les démocraties". 

Même le co-fondateur d'OpenAi avec Elon Musk, Sam Altman, a fait part de son "effroi" à l'idée que ChatGPT et GPT 4 soient utilisées pour de "la désinformation à grande échelle ou des cyberattaques". En  Italie, ce système a été bloqué, accusé de ne respecter la législation sur les données personnelles.

La prolifération de ces systèmes IA tout comme comme les craintes des signataires de cette pétition corroborent surtout les avertissements du patron de Tesla, qui,  en 2014, affirmait que "l'IA était potentiellement plus dangereuse que les armes nucléaires". Il appelait à être "très prudents" avec l'intelligence artificielle, comparant son développement à "un appel au démon".

 francesoir.fr