21/02/2025 lesakerfrancophone.fr  18min #269494

L'Ia accélère

Par Simplicius Le Penseur - Le 16 Janvier 2025 - Source  Dark Futura

Les entreprises technologiques ont intensifié leurs efforts pour transformer nos réalités en simulacres synthétiques de post-vérité où tout est réel et rien n'est réel, où les « faits » ne sont que des vecteurs de monnaie publicitaire et où la réalité elle-même est pasteurisée en bouillie servant les récits des investisseurs en capital-risque.

Certains ont peut-être remarqué la prépondérance des réponses faites par des robots d'intelligence artificielle sur Twitter et ailleurs, l'internet tout entier devenant peu à peu un cloaque industriel de datamosh d'intelligence artificielle malencontreusement oublié. La recherche sur Google est devenue « inutilisable » - c'est ce qu'affirment des dizaines, voire des centaines de vidéos et d'articles soulignant que le moteur de recherche est désormais truffé de résultats privilégiant les services de spam payés par Google, les produits inutiles et autres déchets.

Sans compter que les résultats sont truffés d'informations sur l'IA, ce qui rend presque impossible l'extraction des informations nécessaires dans cette mer d'étrons :

De nombreuses personnes ont pris l'habitude d'utiliser un hack «  before » dans les requêtes de recherche pour contourner la singularité du slop [bava, NdT], ou slopularité, qui entache désormais toutes les recherches.

L'ajout de la mention « before:2023 » peut améliorer vos recherches sur Google et vous débarrasser des contenus générés par l'IA.

Meta a annoncé une avalanche de  nouveaux « profils » d'IA qui agiront comme des utilisateurs humains d'Instagram ou de Facebook en interagissant avec les gens. Dans quel but exactement ? Votre auteur n'en a pas la moindre idée.

Meta confirme qu'ils prévoient d'ajouter des tonnes d'utilisateurs générés par l'IA sur Instagram et Facebook Ils auront des biographies, des photos de profil et pourront partager du contenu.

L'intrépide chercheuse Whitney Webb semble 𝕏 être sur une piste - gardez cette pensée dans un coin en particulier pour plus tard :

Le livre de Kissinger/Eric Schmidt sur l'IA affirme en substance que la véritable promesse de l'IA, de leur point de vue, est d'être un outil de manipulation de la perception - qu'un jour les gens ne seront plus capables d'interpréter ou de percevoir la réalité sans l'aide d'une IA, par le biais de la diminution cognitive et de l'impuissance apprise. Pour que cela se produise, la réalité en ligne doit devenir tellement folle que les personnes réelles ne puissent plus distinguer le vrai du faux dans le domaine virtuel, de sorte qu'elles puissent devenir dépendantes de certains algorithmes pour leur dire ce qui est « réel ». S'il vous plaît, réalisez que nous sommes dans une guerre contre les élites sur la perception humaine et que les médias sociaux sont un champ de bataille majeur dans cette guerre. Gardez votre esprit critique et votre scepticisme et ne les abandonnez jamais.

Et cette partie mérite d'être répétée :

Pour que cela se produise, la réalité en ligne doit devenir si folle que les personnes réelles ne puissent plus distinguer le vrai du faux dans le monde virtuel, de sorte qu'elles deviennent dépendantes de certains algorithmes pour leur dire ce qui est « réel ».

Sérieusement, il suffit de jeter un coup d'œil au nouveau réplicant IA noir queer de Meta :

Il s'agit peut-être d'un débat philosophique, mais les IA peuvent-elles vraiment être « queer » ? Et qu'en est-il d'une IA en blackface qui s'approprie la culture et la personnalité par le biais de l'astroturfing ? Ces entreprises malades n'ont-elles aucune honte ?

Je veux dire, voyons :

C'est ahurissant.

Plus d'informations 𝕏 ici.

En fait, ces étranges opérations psychologiques déguisées en « profils d'IA » ont été un autre échec embarrassant pour Meta, les gens s'attachant rapidement à la façon dont tout cela est dystopique et brisé :

 404media.co

Le point évident étant que les réseaux de médias sociaux destinés aux humains pour soi-disant « former des liens plus profonds » sont maintenant délibérément peuplés par leurs créateurs avec des comptes de pacotille d'IA produisant de la merde pour se faire passer pour de vrais humains. S'agit-il simplement d'un stratagème de remplissage pour soutenir des entreprises moribondes comme Facebook, en les faisant paraître plus « actives » qu'elles ne le sont réellement ? Ou bien cette imposition digne de Black Mirror a-t-elle une connotation plus sombre ?

D'après Meta, cela fait partie d'une stratégie à long terme visant à stimuler l'« engagement » :

 archive.ph

Meta fait le pari que des personnages générés par l'intelligence artificielle envahiront ses plateformes de médias sociaux au cours des prochaines années, car elle compte sur cette technologie en plein essor pour susciter l'engagement de ses 3 milliards d'utilisateurs.

Le groupe de la Silicon Valley déploie une gamme de produits d'IA, dont un qui aide les utilisateurs à créer des personnages d'IA sur Instagram et Facebook, alors qu'il se bat avec des groupes technologiques rivaux pour attirer et fidéliser un public plus jeune.

« Nous nous attendons à ce que ces IA existent réellement, au fil du temps, sur nos plateformes, un peu de la même manière que les comptes », a déclaré Connor Hayes, vice-président du produit pour l'IA générative chez Meta.

« Ils auront des biographies et des photos de profil et pourront générer et partager du contenu alimenté par l'IA sur la plateforme... c'est là que nous voyons tout cela aller », a-t-il ajouté.

En résumé, plus il y a d'« interactions » - c'est-à-dire de clics et de pages consultées, etc. -, plus il y a d'opportunités de placements publicitaires, d'exploitation de vos données et autres, et donc plus de revenus.

Le problème, c'est que dans leur volonté de maximiser les marges bénéficiaires d'une population de plus en plus désintéressée, ils transforment indirectement toute la réalité en un fatras synthétique. Tout cela se fait sans aucune prévision des conséquences sociales et culturelles - personne ne se demande quels types d'effets à long terme peuvent être attendus. La volonté d'utiliser rapidement l'IA comme une béquille ou de prendre de l'avance sur les concurrents se traduit par un lent effacement de l'expérience authentique.

Par exemple, les nouveaux téléphones n'enregistrent même plus la réalité, mais utilisent désormais l'IA pour « surévaluer » les images, créant ainsi un faux simulacre de détails artificiels qui n'existaient pas en réalité :

Tant que l'image « ressemble à peu près à ce que vous vous souvenez de la lune », tout devrait bien se passer, n'est-ce pas ? Mais à un moment donné, la mémoire collective de la chose réelle est-elle entièrement remplacée par la construction artificielle ?

Cette nouvelle tendance se répand partout. Même les cartes graphiques les plus récentes utilisent désormais l'IA pour, essentiellement, construire de faux pixels - une sorte de simulation dans la simulation :

Comme nous l'avons dit, l'IA sera bientôt utilisée pour combler paresseusement toutes les déficiences humaines et sociales possibles, sans se soucier des conséquences de deuxième et de troisième ordre.

Et conformément aux « utilisateurs générés » de Meta, les entreprises nous exploitent désormais pour créer des substituts de l'IA, même sans notre consentement :

Instagram teste la publicité avec VOTRE VISAGE - les utilisateurs se plaignent que des publicités ciblées avec leur apparence ont commencé à apparaître dans le fil d'actualité.

Le plus effrayant, c'est que vous avez utilisé Meta AI pour retoucher vos selfies.

Si vous utilisez l'un des derniers outils d'IA pour télécharger des photos de vous ou de votre famille, vous risquez de voir vos images utilisées dans des expériences grotesques d'IA à but lucratif telles que celles décrites ci-dessus. Ce n'est pas un hasard, il y a eu de nombreux cas de ce genre récemment :

Une YouTubeuse ukrainienne découvre des dizaines de clones d'elle faisant de la propagande chinoise et russe Chaque clone a une histoire différente et prétend être une personne réelle « Elle a ma voix, mon visage, et parle couramment le mandarin ».

Vidéo sur l'article original

Le type qui s'est prétendument fait exploser dans le Cybertruck Tesla aurait même utilisé l'IA pour planifier son attaque :

Le suspect de l'explosion de la camionnette électrique Tesla Cybertruck près de l'entrée de l'hôtel Trump International a utilisé l'intelligence artificielle générative (IA) ChatGPT pour planifier son crime, a déclaré le shérif de la police de la ville, Kevin McMahill, lors d'une conférence de presse.

Selon lui, il s'agit du premier cas connu d'utilisation de ChatGPT à de telles fins aux États-Unis. Selon les forces de l'ordre, le suspect du crime, Matthew Leavelsberger, voulait utiliser l'IA pour déterminer la quantité d'explosifs dont il aurait besoin pour commettre son attentat et savoir où il pourrait acheter le nombre de feux d'artifice nécessaires.

Même notre confortable maison de Substack serait en train d'être envahie :

 archive.ph

Le rapport ci-dessus affirme que WIRED a payé certains des plus grands comptes Substack, afin d'accéder à leurs sections payantes, puis d'identifier le contenu rédigé par l'IA. Normalement, je mettrais cela sur le compte de faux positifs, étant donné que mes propres écrits ont été scannés comme étant « générés par l'IA » selon un utilisateur déconcerté - après quoi j'ai appris que ces « détecteurs d'IA » étaient très imparfaits. Mais c'était il y a un certain temps, et les choses ont probablement évolué depuis : à la suite des tests du rapport susmentionné, WIRED affirme que plusieurs des auteurs ont admis en privé qu'ils utilisaient en fait l'IA dans leur travail. Chers lecteurs, vous savez maintenant pourquoi je privilégie personnellement une prose aussi ornée, excentrique ou carrément « expérimentale » dans mes écrits, toujours soucieux de rester en tête de la courbe de l'IA. L'apocalypse terne qui s'annonce va probablement submerger l'ensemble de l'internet sous une couverture sans fin de grattages d'IA fades, procéduraux, de style passe-partout ; permettez-moi de partir dans un flamboiement de gloire décalée.

Il convient de noter que l'article précise que Substack avait l'un des plus faibles pourcentages de contenu sur l'IA de tous les dépotoirs d'écriture populaires tels que Medium :

Comparé à certains de ses concurrents, Substack semble avoir une quantité relativement faible d'écrits générés par l'IA. Par exemple, deux autres sociétés de détection de l'IA ont  récemment découvert que près de 40 % du contenu de la plateforme de blogs Medium était généré à l'aide d'outils d'intelligence artificielle. Mais une grande partie du contenu suspecté d'être généré par l'IA sur Medium avait peu d'engagement ou de lectorat, alors que le contenu généré par l'IA sur Substack est publié par des comptes de premier plan.

Les auteurs ont même créé un badge « Certifiée Humain » pour les blogs qui ont réussi le test et envisagent un avenir où les rédacteurs pourront signaler leur humanité, un peu comme les étiquettes « entreprise appartenant à une femme ou à un LGBT » sur les cartes de Google.

Au cours des prochaines années, des badges et des sceaux similaires affirmant que les œuvres créatives sont à 100 % humaines pourraient proliférer à grande échelle. Ils pourraient donner aux consommateurs inquiets l'impression de faire un choix plus éthique, mais il est peu probable qu'ils ralentissent l'infiltration régulière de l'IA dans les industries des médias et du cinéma.

J'ai décidé de me badger à titre préventif, juste au cas où :

Mais je ne suis pas le seul à remarquer ce déclin généralisé.

 archive.ph

Ce récent article du Financial Times met en lumière la descente bizarre de la culture Internet dans la folie du kitsch-singularité en phase terminale :

Les images bizarres d'un Jésus rose et visqueux fait de crevettes n'étaient probablement pas ce que l'entreprise OpenAI avait à l'esprit lorsqu'elle a averti que l'intelligence artificielle pourrait détruire la civilisation. Mais c'est ce qui arrive lorsqu'on met les nouvelles technologies entre les mains du public et qu'on lui dit qu'il peut en faire ce qu'il veut. Deux ans après le début de la révolution de l'IA générative, nous sommes entrés dans l'ère du « slop ».

La prolifération de contenus synthétiques de qualité médiocre comme Shrimp Jesus est en grande partie délibérée, conçue à l'aide d'invites bizarres à des fins commerciales ou d'engagement. En mars, des chercheurs des universités de Stanford et de Georgetown ont découvert que l'algorithme de Facebook avait été détourné par des contenus spammy issus de modèles texte-image tels que Dall-E et Midjourney. Le compte « Insane Facebook AI slop » sur X a tenu un compte courant. L'une des images favorites de la campagne électorale américaine montrait Donald Trump en train de sauver des chatons.

Petite parenthèse : avez-vous remarqué à quel point les nouvelles voix off de l'IA semblent « mortes », alors qu'elles ont complètement évincé le marché des documentaires sur YouTube ? Elles semblent très réalistes, mais plus vous les écoutez, plus vous commencez à manquer les minuscules nuances de sous-texte fournies par les inflexions naturelles d'un présentateur humain, ses pauses et d'autres dispositifs de communication bien ancrés dans les habitudes. L'écoute d'un narrateur humain donne une nouvelle dimension de sens - aussi subtile soit-elle - grâce à laquelle votre cerveau cherche naturellement à établir des liens de contexte entre le narrateur et le contenu, ce qui ouvre des voies d'imagination et vous rend indirectement plus réceptif au contenu présenté. Il manque quelque chose au narrateur IA, et le matériel lui-même - même s'il est magnifiquement produit - donne l'impression qu'il lui manque quelque chose.

Mais bien que tous les gadgets « stupides » et drolatiques de saturation de l'IA puissent sembler bénins, comme mentionné au début, beaucoup pensent qu'il s'agit d'une intensification délibérée destinée à nous piéger dans un tourbillon d'informations, à disperser la réalité dans une matrice « post-vérité » où nos nouveaux parrains de l'IA autoriseront de manière autoritaire nos nouvelles « vérités » au nom de leurs programmeurs.

Brandon Smith a  abordé ce sujet dans un article paru l'année dernière :

En résumé, les globalistes souhaitent la prolifération de l'IA parce qu'ils savent que les gens sont paresseux et qu'ils utiliseront le système comme substitut à la recherche individuelle. Si cela se produit à grande échelle, l'IA pourrait être utilisée pour réécrire tous les aspects de l'histoire, corrompre les racines mêmes de la science et des mathématiques et transformer la population en un esprit de ruche baveux ; une écume bourdonnante de drones décérébrés consommant chaque proclamation de l'algorithme comme si elle était sacro-sainte.

En ce sens, Yuval Harari a raison. L'IA n'a pas besoin de devenir sensible ou d'utiliser une armée de robots tueurs pour faire beaucoup de mal à l'humanité. Il lui suffit d'être suffisamment pratique pour que nous n'ayons plus envie de penser par nous-mêmes. Comme le « Grand et Puissant » OZ qui se cache derrière un rideau numérique, vous pensez acquérir des connaissances auprès d'un magicien alors que vous êtes en réalité manipulés par des vendeurs d'huile de serpent globalistes.

Après tout, il suffit d'écouter ce que les élites technologiques au sommet du totem disent à propos de l'intégration de l'IA dans nos nouveaux paradigmes de contrôle à venir :

 archive.ph

Naturellement, l'article indique que la société « Oracle » d'Ellison investit massivement dans l'IA. Il est intéressant de noter qu'Oracle mentionne qu'à l'avenir, même les voitures de police ne seront plus nécessaires, car les drones IA surveilleront la ville et poursuivront les suspects par eux-mêmes. Cela correspond à une initiative déjà mise en œuvre par le partenaire d'un autre titan de la technologie, Mark Andreessen, décrite ici :

Vidéo sur l'article original

Il explique comment la police de Las Vegas a désormais la « capacité de placer un drone sur n'importe quel cambriolage ou appel au 911 en 90 secondes ». Le drone peut alors suivre l'auteur de l'infraction et il est impossible d'échapper à ce genre de choses. Le plus intéressant, c'est qu'au-delà de l'utilité pédante de « sauver des vies » - ou de toute autre excuse bon marché qu'il donne -, Andreessen mise, comme on pouvait s'y attendre, sur le gros éléphant dystopique de la technologie : « L'effet dissuasif ».

Rayonnant d'une joie insensée, le tyran en puissance à tête de mollusque se délecte de la capacité des drones à susciter la peur chez les citoyens. Démontrant son incapacité à comprendre les conséquences de deuxième et de troisième ordre, il affirme en vain que... « Si vous savez qu'à Vegas, si vous ne pouvez pas vous défendre, vous ne pouvez pas vous défendre » :

Si vous savez qu'à Vegas, si vous entrez par effraction dans un 7-11 à 2 heures du matin, vous allez vous faire attraper par un drone, vous n'allez pas le faire, n'est-ce pas ?

Toute personne intelligente mettrait en balance le dangereux potentiel d'abus et les prétendus avantages d'un tel cas d'utilisation. Exemple d'expérience de pensée : à l'époque du Patriot Act et de la sécurité intérieure qui ont suivi le 11 septembre et qui ont vu la création de la TSA, comparez le nombre de crimes majeurs résolus par la TSA, ou de terroristes qu'elle a « pris sur le fait », au nombre d'abus à grande échelle commis par l'agence répressive à l'encontre de centaines de milliers de citoyens en colère. Un ou deux criminels attrapés ou des crimes résolus valent-ils la transformation totale de la société en un panopticon fondé sur la peur ?

Cela conduit à la question naturelle de la pente glissante : à quel moment s'arrête-t-on ? Au fur et à mesure que l'IA progresse, faut-il continuer à mettre en place une surveillance, des restrictions, un contrôle, etc. de plus en plus importants, jusqu'à ce que la criminalité et la souffrance humaine soient entièrement éliminées ? À quel moment cela se produirait-il ? Et la suite logique : pourquoi ne pas éliminer l'humanité elle-même, ou brancher tout le monde dans une « matrice » perpétuelle pour empêcher quiconque d'être « blessé » à nouveau - l'ultime telos du flocon de neige de la gauche radicale, semble-t-il. Il doit y avoir un moment où une ligne est tracée, et où les gens de sagesse reconnaissent et acceptent qu'un certain nombre de crimes et de souffrances sont le prix à payer pour vivre dans une société libre. Pourquoi ce simple calcul a-t-il toujours échappé à la compréhension des utopistes radicaux de gauche ?

Un peu plus de détails de la part du mollusque utopiste :

Vidéo sur l'article original

Vous vous souvenez de ceci ?

Vidéo sur l'article original

Une grande partie de ce qui précède, d'ailleurs, prend une tournure inquiétante au vu des récentes révélations concernant la mort du dénonciateur de l'OpenAI, Suchir Balaji. A l'heure où nous écrivons ces lignes, Tucker Carlson a publié une longue interview exclusive de la mère de Suchir, qui contient une série de révélations choquantes : elle conteste clairement que sa mort n'était pas un suicide comme on le prétendait, mais qu'il s'agissait presque certainement d'un meurtre-homicide. 𝕏 Regardez-la ici pour vous en convaincre :

Parmi les innombrables preuves qu'elle apporte, on trouve ces trois faits essentiels :

  1. Tout son appartement était éclaboussé de sang
  2. La blessure par balle se trouve autour de son front, à un angle de 30 à 45 degrés vers le bas - un angle impossible à atteindre pour une blessure par balle auto-infligée.
  3. Plus étrange encore : des morceaux d'une perruque éclaboussée de sang auraient été retrouvés, dont les fibres ne correspondent pas aux cheveux de Suchir.

Tout cela pour dire que ces entreprises technologiques jouent le tout pour le tout. Il est de notoriété publique qu'OpenAI a presque entièrement fusionné avec l'État profond gouvernemental, avec des personnes comme Will Hurd, officier de la CIA, et Paul Nakasone, chef de la NSA, qui ont rejoint le conseil d'administration d'OpenAI. Cela signifie que des entreprises comme OpenAI ne sont que des extensions de puissants intérêts gouvernementaux qui ne respectent pas les règles et qui ont l'habitude d'« éliminer » toute personne susceptible de représenter une menace pour leur ordre technocratique. Will Hurd, soit dit en passant, aurait également siégé au conseil d'administration d'In-Q-Tel, célèbre pour avoir financé Google et ses connexions avec Facebook :

En résumé, si vous vous attaquez à OpenAI, vous vous exposez à des gens mal intentionnés qui protégeront leurs actifs à tout prix.

Il est amusant de constater que, reprenant le célèbre discours d'Eisenhower sur le complexe militaro-industriel du 17 janvier 1961, Biden a  mis en garde hier soir, dans son propre discours d'adieu, contre la montée d'un « complexe technico industriel » et d'une oligarchie qui représentent une menace pour les États-Unis. Comme toujours, Biden et ses larbins ne se sont jamais préoccupés de tout cela lorsque Soros, Adelson, Murdoch, Koch, Pritzker et les nombreux autres milliardaires finançaient des causes favorables à l'establishment. Maintenant qu'une paire de milliardaires a émergé avec Trump et Musk qui ont pris position contre l'orthodoxie, c'est soudainement une alarme de panique pour le « complexe technico industriel ».

Mieux vaut tard que jamais, je suppose.

En attendant, la matrice big-tech-big-intel va continuer à pomper du slop pour réorganiser notre rapport à la vérité et à la réalité afin de faciliter l'injection de leurs petites faussetés quotidiennes.

Vidéo sur l'article original

Simplicius Le Penseur

Traduit par Hervé, relu par Wayan, pour le Saker Francophone

 lesakerfrancophone.fr