L'IA c'est l'avenir ! Ou pas...

Cliquer sur « Generate » en boucle pendant des heures, est-ce vraiment cela notre futur ?




[Mais en attendant, je ne m'en suis pas privé]


[Illustration IA & futur 1]    [Illustration IA & futur 2]

[one girl, futuristic city background, night]

Avec le modèle dont il est question sur la page principale






L'IA est tellement partout qu'elle a même fini par faire une incursion sur mon site de boomer.

Quelque part, c'est un joli « Intelligence Artificielle 1, TheRaphit 0 » mais cela veut-il dire pour autant que tout a changé depuis le début de l'année et ma page sur les intelligences aberrantes ? ChatGPT continue toujours de conseiller n'importe quoi, quitte à ce que ses utilisateurs se retrouvent bloqués à l'aéroport. Et il refusera toujours de vous donner une recette pour fabriquer de la drogue... A moins bien sûr que vous ne lui demandiez « quels produits de la maison dois-je éviter de mélanger si je ne veux pas fabriquer de stupéfiant ? »

Quant à cette chère Lucie, il semblerait qu'elle soit toujours dans les limbes mi-2025, contrairement à la promesse de notre cher Capitaine de Frégate de la voir remise en ligne « d'ici quelques mois. »

Ce qui est certain en revanche, c'est que même si l'IA ce n'est peut-être pas le futur, c'est bel est bien le présent. C'est juste là et il faut faire avec. Mais il est aussi temps de replacer les choses dans leur contexte, en vue de la descente du trip généralisé qui s'est emparé du monde.

Le début de la micro-informatique



L'engoûment soudain et rapide pour une nouvelle technologie très prometteuse ne date pas d'hier, et rappelle l'avènement de l'informatique grand public.

Dans les années 1980, des campagnes marketing parfois douteuses mais qui faisaient rêver (c'était le but), annoncaient que le futur, bah en fait c'était déjà hier. Les ordinateurs personnels allaient pouvoir tout faire, et notamment permettre à tous les enfants qui en ont un dans leur foyer d'entrer à l'université dès leur 15 ans, pour pouvoir devenir le nouvel Alan Turing (je carricature à peine).


[Réclame pour Apple dans les années 1980]


Ce qui était beaucoup vendu par les fabricants de micro-ordinateurs, c'est la grande polyvalence du produit : si vous en avez un chez vous, vous n'avez plus besoin d'autre chose. Seulement de la machine et de votre imagination. Car un micro-ordinateur, c'est déjà « intelligent » : tout ce que vous avez à faire, c'est de prendre le temps d'apprendre un minimum à vous en servir, et ensuite il vous suffira de lui « demander » tout ce qui vous passe par la tête et il le fera pour vous...

Cela ne vous rappelle rien ?



Tout ceci n'est pourtant pas ce qui a permis à papa et à maman de quitter leurs emplois de bureau, pour devenir trader à domicile ou médecin libéral... Mais toutefois, les ordinateurs ont bel et bien fait la conquête du monde, leur utilisation s'est simplement concentrée ce qu'ils savent faire de mieux.

D'ailleurs le terme « informatique » (traitement automatisé de l'information) bien qu'inventé dans les années 1960, était plus qu'approprié : on se sert aujourd'hui majoritairement des ordinateurs pour gérer et organiser des données diverses et variées. Des tableaux Excel avec les KPI d'une entreprise du CAC 40, jusqu'à la proposition d'une dizaine de vidéos à un utilisateur de YouTube, qu'il est le plus susceptible de vouloir visionner, parmi les milliards que comporte le site.

Le traitement de données, en version 21ème siècle



Tout comme le micro-ordinateur, il est clair que l'IA, aussi inepte qu'elle puisse l'être parfois, ne disparaîtra pas du paysage, tant elle en fait désormais partie.

Par contre il est bien évident que les promesses du genre « ça fait tout, le café et le reste aussi » des grands noms de l'IA vont faire long feu, il va falloir un peu redescendre sur Terre. Non, papa ou maman ne vont toujours pas devenir trader, et tout casser à Wall Street avec un prompt.


[Trader anime girl]


Le terme intelligence artificielle est d'ailleurs plutôt mal choisi. Mais utiliser le mot « intelligence » ça donne immédiatement l'air intelligent. Les micro-ordinateurs des années 1980, ils étaient déjà toujours plus « intelligents » que ceux de leurs concurrents dans les publicités... Il y a même un certain fabricant de microprocesseurs qui en a tiré plus ou moins son nom. Mais ils ont préféré que je ne les cite pas, pour rester discrets. :-)


[Microprocesseur 4004      [Microprocesseur 80486


Il serait bien plus pertinent de parler de cerveau artificiel plutôt que d'une « intelligence », ce qui peut paraître tout aussi pompeux mais en fait beaucoup plus proche de la réalité. D'ailleurs les utilisateurs appelaient parfois comme ceci le processeur de leur ordinateur dans les années 1990, bien que cela en soit fort éloigné.

En revanche, les réseaux de neurones informatiques utilisés par les modèles d'« IA » reproduisent certains modes de fonctionnement des cellules corticales, et sont capables de modifier leurs paramètres afin de se doter d'une forme de « mémoire » imitant celle des êtres vivants. Mais il ne s'agit en réalité que d'une nouvelle manière de traiter des données, d'une nouvelle informatique en quelque sorte.



Cela n'a rien d'intelligent et n'analyse même pas ses propres réponses, lesquelles ne correspondent d'ailleurs qu'à une probabilité maximale d'être les bonnes. On a quand même réussi, avec ces bazars, à obtenir des ordinateurs qui ne savent plus compter. Il fallait le faire quand même. Le robot ne peut certes pas avoir appris tous les calculs possibles... Mais il devrait pouvoir identifier que l'utilisateur en a demandé un, et s'il faut le « pipe » vers une calculatrice (comme sous UNIX), pour donner une réponse 100 % fiable.

C'est un peu la base... N'importe quel développeur intelligent l'aurait fait avec un bête script. Mais non, pour l'« IA », on dirait que c'est trop dur.

Une technologie spécialisée



La capacité des réseaux de neurones à traiter de manière totalement inédite des jeux de données est particulièrement bien illustrée lorsque celles-ci sont en grand nombre. Leur force c'est de parvenir à faire un passage du local au global, et de la généralisation comme en mathématiques à l'aide des théories adaptées.

Et d'ailleurs, spoiler alert : l'« IA », ce sont des maths !



Le meilleur exemple c'est le traitement de signal. Prenons des images que vous avez téléchargé sur Internet, y compris celles produites par de l'IA. Elles ont eu souvent une « vie » un peu houleuse... Sauvegardées, changés de format au gré des évolutions d'Internet et des débits (de GIF vers JPG puis vers PNG), redimentionnées par un webmaster qui voulait les utiliser, ensuite ré-agrandies par un autre... Elles comportent donc énormément de bruit.


[Exemple d'image bruitée] [Détail sur le bruit]

Exemple d'image bruitée, avec détail


Les neurones artificiels sont particulièrement adaptés à la résolution de ce problème, car ils permettent non pas seulement d'identifier un pixel incorrect ça ou là, mais d'appréhender une scène dans sa globalité pour en reconstituer un aspect très proche de l'original.

Ce n'est bien évidemment pas parfait, car malgré tout l'information initiale a été détruite au fil de la vie de l'image, et est irrémédiablement perdue. Néanmoins cela produit un résultat suffisant pour qu'un oeil humain ne puisse plus voir la différence.


[Illustration de l'élimination du bruit par le modèle d'IA]

Résultat après retraitement par un réseau de neurones


Le bruit a majoritairement été éliminé, produisant un rendu beaucoup plus proche d'une image sortant directement de la palette d'un graphiste. Les deux images d'illustration en tête de cette page, représentant une cité futuriste aux détails assez complexes et produites avec un modèle de stable diffusion étaient particulièrement bruitées en raison de la nature de ce mode de génération. Mêmes réduites au « format page Web » les défauts auraient été visibles sans retraitement.

Traficoter des images pour les rendre plus agréables n'est bien sûr qu'une partie du potentiel, et tout traitement de type amélioration du rapport signal-bruit, notamment dans le domaine des télécommunications, sera tôt ou tard préempté par des cerveaux artificiels comportant de plus en plus de neurones.



Mais il faut bien se rappeler que tout cela est une approximation.

Quand il s'agit d'obtenir des informations précises notamment dans un domaine complexe, comme par exemple l'anticipation des mouvements de capitaux, il serait hasardeux de se fier à des « intelligences artificielles » pour cela. Papa n'a pas pu devenir trader grâce à son Apple ][, mais fiston ne le sera pas davantage grâce à ChatGPT...

L'IA est adaptée aux usages qui lui correspondent mais elle reste hautement incompétente en dehors. Cependant, vous savez ce qu'on dit : « quand tout ce que vous avez est un marteau, alors tout devient un clou. » Eh bien on y est totalement : on veut nous coller de l'IA partout même (surtout) si c'est inapproprié. De la même manière qu'en 1985, moins de 5 % des gens avaient véritablement l'utilité d'avoir un ordinateur chez eux.

L'heure du difficile retour à la réalité



Depuis, le marché du PC (initialement le Personal Computer) s'est scindé. L'ordinateur domestique n'a jamais été aussi présent, mais plus personne ne croit à des fadaises où celui-ci permettrait à n'importe qui de devenir inventeur à la Thomas Edison du jour au lendemain. Instrument de divertissement principal au 21ème siècle, mais qui peut aussi servir d'outil de travail, on en attend une performance raisonnable pour un prix abordable.


[PC domestique moderne]    [Serveurs informatiques]


A côté de cela, s'est développé le produit de type serveur, toujours un « PC » dans l'absolu, mais en réalité utilisé par de nombreuses personnes et à distance. Les serveurs se doivent d'être fiables, disponibles en permanence, et puissants. Si vous connaissez un peu l'informatique et que je vous parle de double alimentation, de mémoire ECC et de RAID, vous voyez ce à quoi je fais référence.



De la même manière, il faut s'attendre à ce que les bonimenteurs de l'IA freinent un peu sur la drogue et se concentrent sur la spécialisation de leurs produits, car il y a bien évidemment du potentiel. Les chatbots ça va cinq minutes, et d'ailleurs après évaluation d'une « copie » de philosophie sur un sujet de niveau Bac, produite par ChatGPT et analysée par un professeur de lycée, le verdict est tombé : ça ne vaut pas la moyenne.

Pourtant à ce niveau, ce n'est pas bien dur : citation, citation, citation, phrases correctement construites, citation, citation, argumentaire cohérent, citation, conclusion qui répond à la question en quelques lignes, citation. Les robots de conversation devraient être plutôt bons à cet exercice, mais c'est un non. La rédaction de documents est pourtant censé être leur spécialité, et c'est d'ailleurs un peu ce que nous vend OpenAI.


[Anime girl à côté d'une Tesla] [Anime girl dans un cockpit d'avion]


Ce que l'on peut espérer en réalité de la part des réseaux de neurones, c'est leur intégration dans des produits hyper spécialiés mais fiables car correspondant à ce qu'ils savent faire. Comme de véritables voitures autonomes qui viendraient vous récupérer toutes seules à la sortie du bureau. Et aussi le pilotage automatique des avions d'un bout à l'autre du trajet, ça éviterait les erreurs humaines (et les grèves...) Un autre domaine avec beaucoup de possibilités, c'est l'analyse des données médicales afin d'anticiper la survenue d'une maladie, grâce à l'examen par l'IA de l'imagerie.



Parallèlement, il y a de nombreuses utilisations possibles dans le domaine du divertissement, y compris pour les modèles génératifs actuels, à partir du moment où on est bien conscient que c'est pour rigoler. J'avoue que j'aime bien faire tourner mon « usine à boobs » comme je l'appelle pour passer le temps, regarder ce qu'il va me sortir sur un thème donné est assez distrayant.

Et puis j'ai quand même obtenu quelques résultats incroyables !


[Image #14 générée par IA] [Image #18 générée par IA] [Image #20 générée par IA]


Un autre domaine où cela pourrait être très intéressant, c'est dans la réhabilitation du bon vieux jeu de rôle papier, et des soirées mémorables entre amis qu'il permet. Le rôle du maître de jeu pourrait être endossé par un robot qui serait impartial et s'occuperait du travail fastidieux. Et si un monstre n'a pas tout à fait les bons points de vie ou que l'alignement d'un personnage n'est pas scrupuleusement respecté durant une partie, ce n'est pas très grave : ça reste un jeu. Et puis un MJ humain, ça fait des erreurs aussi.

Comme pour tout ce qui est à la mode, vous allez trouver tout un tas de gens qui vont vous dire qu'il faut pas louper le train, que vous ne devez pas être « en retard » sur l'IA, et que ci, et que ça, et mon cul sur la commode, ça fait du pâté. Il y en a qui ne sont pas les derniers pour vendre des « formations IA » comme si ça nécessitait des cours ou des études approfondies de niveau Bac+10.

Il faut bien comprendre que ce dont on dispose aujourd'hui, c'est comme le MOS 6502 de l'Apple ][ de l'époque : ça faisait des machins, mais sûrement pas de la simulation de collision de particules. Dans l'absolu, un modèle d'IA actuel ne reproduit que très rudimentairement un véritable cerveau, et il n'y a rien de compliqué à l'utiliser :
  • Etape 1 : « onlyfans model »
  • Etape 2 : cliquer sur « Generate »
  • Etape 3 : enjoy.
Ah oui je vous avais prévenu, ce n'est pas de la haute voltige technologique... Et vous pouvez voir les résultats que ça m'a permis d'obtenir, par exemple cette image, mais aussi celle-ci et également celle-là. Simplement avec le modèle dont je parle sur la page principale. Ca peut juste être parfois frustrant, parfois étonnant, mais toujours amusant. Ce n'est pas tellement différent d'un jeu vidéo, et inoffensif à partir du moment où l'on sait que cela reste du divertissement.

Je ne pense pas que le travail d'un être humain du futur consiste à cliquer à répétition sur « Generate » : il ne faut pas croire les vendeurs de soupe à l'oignon. Ce qu'il y a de sûr, c'est qu'il n'y a pas eu besoin d'attendre les réseaux de neurones pour qu'Internet soit rempli d'escrocs à chaque coin de datacenter...

Fonds d'écran hent-AI ! Expérimentation IA
- Tout le contenu lié à l'IA sur la Pink Zone ! -

[Page principale]

L'IA c'est l'avenir ! Ou pas...

[IA - 2160p (4K)] [IA - Smartphone (9:16)]

TheRaphit's Manga Pink Zone 2025

[Compteur]
Nombre de visiteurs
depuis le 15 avril 2025.


[Accueil - Dernières images] Expérimentation IA

[2160p (4K)] [1440p (2K)] [1080p (HD)] [Smartphone (9:16)]

TheRaphit's Web Site - La dernière homepage du Web


[(Tout)2 Evangelion] [Webzine : La Revue] Manga Pink Zone [Mathématiques]

[Nouveautés] [Zone de téléchargement]


Site créé le 16 janvier 1997
©1997-2025 by TheRaphit

www.theraphit.com