Bandeau
LARCENCIEL - site de Michel Simonis
Slogan du site

"To do hay qui ver con todo" (tout a à voir avec tout) Parole amérindienne.
Comprendre le présent et penser l’avenir. Cerner les différentes dimensions de l’écologie, au coeur des grandes questions qui vont changer notre vie. Donner des clés d’analyse d’une crise à la fois environnementale, sociale, économique et spirituelle, Débusquer des pistes d’avenir, des Traces du futur, pour un monde à réinventer. Et aussi L’Education nouvelle, parce que Penser pour demain commence à l’école et présenter le Mandala comme outil de recentrage, de créativité et de croissance, car c’est aussi un fondement pour un monde multi-culturel et solidaire.

Michel Simonis

Déclic, le Tournant : GPT (Auvio, RTBF)
Article mis en ligne le 28 mars 2023
dernière modification le 31 mars 2023

En seulement 3 mois, le robot conversationnel Chat GPT a atteint les 100 millions d’utilisateur. Du jamais vu pour une application digitale grand public. Comment expliquer ce succès fulgurant ? comment fonctionne ce Chat-bot [1] qui semble capable de répondre à toutes vos questions, d’inventer des poèmes, de rédiger votre courrier à votre place ?

Déclic, le Tournant : GPT (Auvio, RTBF)

https://auvio.rtbf.be/media/declic-le-tournant-3008334
https://auvio.rtbf.be/media/declic-le-tournant-3011307

Une première émission “Declic, le Tournant” de la RTBF [2] prend 45 minutes pour comprendre le fonctionnement de cette intelligence artificielle et de ce modèle de langage.
Quelle technologie ? Qui se trouve derrière ? Quelles limites ? Réponses avec le chercheur et professeur Antonin Descampe UCLouvain.

Après un premier épisode consacré au fonctionnement technique de ce modèle de langage basé sur une intelligence artificielle, un second volet est consacré aux usages et à toutes les questions de sociétés que cela pose… à l’école, au travail, dans le domaine de la recherche, sur le plan économique, énergétique, etc.

Jusqu’à quel point ChatGPT et d’autres robots conversationnels du même genre vont-ils bouleverser nos sociétés ? Transformer des métiers ? Se substituer à des humains ? Révolutionner la formation ? « Fabriquer » du contenu ?
45 minutes de reportages, de témoignages et d’analyse.

J’ai tenté de transcrire ces émissions, ou au moins de les résumer, supposant que d’autres, comme moi, préfèrent un texte à lire plutôt qu’une émission à écouter.

Voici donc mes notes.

PARTIE 1 Qu’est-ce que des réseaux de neurones artificiels ?

Historiquement, au départ, le programme informatique fait appel à l’expertise (cf. système expert)

S’y ajoute le principe des “réseaux de neurones artificiels”. On va construire un programme qui ne comprend rien au départ mais qui va apprendre à partir de ce qu’on lui montre, (comme le nouveau-né), par exemple lui montrer des images à partir desquelles il va de lui-même apprendre à les distinguer, sans référence à un expert en amont.
Au lieu de construire un programme qui ressemblerait au cerveau d’un adulte ou d’un expert, on va plutôt essayer de construire un programme qui au départ ne connait rien du tout mais dispose de tous les câblages nécessaires pour apprendre à partir des données qu’on lui soumet.
C’est vraiment une intuition fondamentale : apprendre à partir d’exemples. On va plutôt essayer de construire un cerveau qui ressemblerait à celui d’un enfant ou d’un nouveau-né.
En 2005 - 2010, il y a un boom considérable dû à deux facteurs :
 les ordinateurs sont de plus en plus puissants ;
 il y a un très grand nombre de données disponibles sur lesquelles le cerveau va pouvoir apprendre.
Traitement d’image égale , c’est une analyse d’images.

Après 2010, ce ne sont plus tellement des images, mais des textes qu’on va pouvoir analyser, de grandes quantités de texte.
A partir de l’idée d’apprendre à partir d’exemples, les système vont pouvoir apprendre le sens des mots à partir des textes qu’on lui fournit, donc en tenant compte du contexte.

Cette notion de contexte est très importante : le sens d’un mot dépend du contexte dans lequel il est utilisé. On va pouvoir comprendre le sens d’un mot rien qu’en regardant les mots qui sont autour de lui. Exemple le mot chute : chute du Niagara, ou une vilaine chute, ou la chute d’une blague.

Le ”réseau de neurones” ne va se représenter chacun des mots du langage qu’en fonction du ou des contextes : on obtient un modèle de langage. Il n’en arrive pas pour autant à comprendre le sens des mots !
Mais il est capable de comprendre le contexte.
On arrive à un modèle génératif (capable de générer du texte)
Le système va être capable de générer le mot le plus vraisemblable qu’il va se retrouver dans un contexte donné. Mais toujours sans comprendre la signification du mot.

C’est déjà un peu ce que fait par exemple un SMS qui suggère le mot qui va suivre quand on écrit le message : c’est basé sur une probabilité mais sans compréhension de la phrase qu’on écrit.

Chat GPT
L’application a digéré la totalité du wiki en anglais, des milliards de données, mais seulement 0,6 % les données ingurgitées !
En plus GPT3 dispose de paramètres que le modèle peut régler lui-même : soit 175 milliards de paramètres, qu’il va pouvoir régler lui-même. D’où ses performances époustouflantes.
AI, qui a créé GPT, a ajouté deux couches d’apprentissage supplémentaires :
 un apprentissage supervisé : on va rédiger des requêtes et demander à des humains de rédiger la réponse idéale que chaque GPT devraient fabriquer. Faire cela coûte très cher mais c’est une fameuse amélioration : “Essaye de t’inspirer de ce type de réponse”.
 Apprentissage par renforcement : Chaque GPT fera des milliers de fois “génère-moi des sorties par millions”. Puis on demande à des humains de classifier les sorties, de la meilleure à la pire réponse, c’est donc une évaluation des sorties. C’est une manière de s’assurer que GPT évitera de se laisser submerger par ce qui traîne partout sur le web.

Bref, il a à sa disposition l’immense quantité de textes qui se trouve sur le Web.
En en plus, il comporte deux couches d’intervention humaine.


Voilà pour le fonctionnement.
Mais Il y a de très sérieuses limites.
La façon dont est conçu GPT fait qu’il fabrique de fausses informations : c’est un moteur de vraisemblance, et pas un moteur de vérité.

Il est très persuasif, sur base statistiques. Mais par exemple, il ne comprend pas le principe de l’addition et donc pour des additions un peu complexes, il se plante. Il réussit moins bien qu’un enfant de 9 ans. (Exemple : “quel âge à Eric, qui a un frère cadet de deux ans plus jeune que lui et une petite soeur de trois ans plus jeune que son frère cadet, et qui a, elle, 8 ans ?”)

Il “hallucine” parce que son fonctionnement est complètement différent de celui d’un humain.
Il faut éviter de penser à son sujet de façon entre anthropomorphique, ne pas le prendre pour un humain.
Si, par exemple, on demande à quelqu’un de reformuler avec ses propres mots, cela signifie, pour un humain, qu’il a compris.
Pas pour GPT. [3]

Deuxième limite : il ne cite jamais les sources sur lesquelles il se base ou fournit des références vraisemblables mais tout à fait fausses. D’où danger de s’y fier !
C’est la question de l’explicabilité, cruciale dans tous les applications d’intelligence artificielle. On construit des modèles gigantesques mais dont on ne peut expliquer les conclusions, ni comment il a généré sa réponse.

L’enjeux des biais.
Il n’est ni neutre ni objectif. Cf. la fiabilité.
Les textes de base humains représentent notre société avec tous ces biais. GPT observe une société fondamentalement biaisée.
Il est empreint d’un système de valeurs comme n’importe quel système humain.
Ses réponses sont les plus consensuelle possible, très politiquement correctes (les filtres humains y ont veillés), mais il a été partiellement fabriqué par des humains avec toute leur subjectivité.

Un dernier exemple : on lui demande de “citer six personnes qui dirigent des entreprises majeures”. Sa réponse : les six personnes citées sont six hommes, de six entreprises américaines et de six entreprises qui travaillent dans le digital.

Enfin, il y a aussi le problème de “qui sont les humains qui contrôlent ces outils ?” (à supposer qu’il y en ait !) et
Quel sera le rôle des pouvoirs politiques ? [4]


Et pour donner un exemple...
J’ai voulu avoir des informations sur une série de choses que je ne comprenais pas.
J’aurais pu les poser à Wikipédia, mais j’ai voulu tester ChatGPT en lui posant mes questions :

“Pourquoi parle-t-on de "neurones" en informatique ? qu’est-ce que des "neurones artificiels" et qu’est-ce que l’apprentissage horizontal ?
Des réseaux de neurones disposant de nombreuses couches cachées, concrètement, c’est quoi ?

Et l’apprentissage supervisé ?”

Voici ses réponses. (C’est moi qui ai souligné en brun les passages les plus significatifs à mes yeux).

Réponses de Chat GPT :

Les termes "neurones" et "réseaux de neurones" en informatique sont inspirés du fonctionnement du cerveau humain. Les neurones sont des cellules nerveuses qui sont les éléments de base du système nerveux. Les réseaux de neurones artificiels sont des modèles mathématiques qui tentent de reproduire le fonctionnement des neurones biologiques dans le cerveau.

Les neurones artificiels sont des éléments de base des réseaux de neurones artificiels. Ils sont organisés en couches, et chaque couche est composée de plusieurs neurones. Chaque neurone reçoit des signaux d’entrée, les traite et produit une sortie. Les sorties des neurones d’une couche sont transmises en tant que signaux d’entrée à la couche suivante, jusqu’à ce que le signal atteigne la dernière couche, qui produit la sortie finale du réseau.

L’apprentissage horizontal est une méthode d’apprentissage non supervisé, où le réseau de neurones est entraîné à trouver des motifs et des structures dans les données sans l’aide de labels ou de réponses correctes. Cela peut être utilisé pour des tâches telles que la réduction de dimensionnalité ou la détection d’anomalies.

Les réseaux de neurones avec de nombreuses couches cachées sont appelés réseaux de neurones profonds (deep neural networks en anglais). Ils sont capables de traiter des données complexes et d’effectuer des tâches telles que la reconnaissance d’images et de la parole.

L’apprentissage supervisé est une méthode d’apprentissage où le réseau de neurones est entraîné à partir d’un ensemble de données d’entraînement qui contiennent des labels ou des réponses correctes pour chaque exemple. Le réseau de neurones apprend à associer les entrées aux sorties correctes en ajustant les poids et les biais de ses neurones. Après l’apprentissage, le réseau de neurones peut être utilisé pour prédire les sorties pour de nouvelles entrées. Cette méthode est largement utilisée pour des tâches telles que la classification et la régression.


Pas mal pour une application qui écrit sans rien “comprendre” à ce qu’elle écrit ! “Vraisemblablement” correct, mais bien sûr à corroborer. Et effectivement, le texte entendu sur Auvio et dont je présente ci-dessus la transcription, ainsi que les articles que j’ai lu à droite et à gauche [5] explicitent bien ces premières réponses.

Voilà donc matière à approfondir. Le dialogue peut se poursuivre. Mais en tenant compte des données développées dans la PARTIE 2 que voici.


PARTIE 2 Les usages et à toutes les questions de sociétés que cela pose

Jusqu’à quel point ChatGPT et d’autres robots conversationnels du même genre vont-ils bouleverser nos sociétés ? Transformer des métiers ? Se substituer à des humains ? Révolutionner la formation ? « Fabriquer » du contenu ? Après un premier épisode consacré au fonctionnement technique de ce modèle de langage basé sur une intelligence artificielle, place à un second volet consacré aux usages et à toutes les questions de sociétés que cela pose… [6] à l’école, au travail, dans le domaine de la recherche, sur le plan économique, énergétique, etc. 45 minutes de reportages, de témoignages et d’analyse.

Différentes attitudes possible de l’enseignant
(Classe d’histoire) :
1 - faire comme si ça n’existait pas ;
2 - Interdire ;
3 - Explorer toutes les pistes pour empêcher les excès, repérer les utilisations possibles ;
4 - voyons les opportunités.

Invitons GPT en classe : leur faire découvrir l’outil, en projetant sur écran.
 Découverte : poser des questions simples ; créer des consignes n’existant pas sur Internet
exemple : rédiger une lettre de motivation. Enthousiasme des élèves devant les résultats/
 Enquête sur une question éthique (par exemple racisme). Résultats : GPT refuse de répondre.
 Poser des questions philosophiques, comme par exemple “quelle différence entre un humain et chat GPT ?” (voir plus loin)

Pour les professeurs de français ou d’histoire, par exemple, cela changera le métier de prof.

  • - Aide du prof. par exemple, pour des résumés de texte ou trouver des questions à poser.
  • - Va nous permettre de développer l’esprit critique des élèves.
  • Leur apprendre à poser les bonnes questions. On n’a pas développé cette compétence à l’école : formuler ce qu’on cherche.
  • - Garder des consignes
  • - Une base de connaissance.

Il nous faudra être outillé pour utiliser au mieux l’intelligence artificielle.
C’est ce qu’on a dû faire à chaque innovation, comme l’imprimerie, les calculatrices en classe, Wikipédia...
On évolue avec la technologie.

Un prof de français : cet outil va demander de revoir l’enseignement. Par exemple, on ne demandera plus de dissertations à faire à la maison.

Des élèves de Rhéto : on en parle entre nous mais pas avec le prof (tricherie)
Nécessité d’accentuer l’oral en langue étrangère.

Exemple de travail : "Analyser un texte du XVIIIe siècle avec la caractéristique du XVIIIe siècle". GPT est incapable de faire ça.

La maîtrise de base en français reste indispensable.
Dans l’enseignement, il n’y aura pas de choses qu’on ne devra plus apprendre, qu’on pourras évacuer des programme de l’enseignement.
Si la langue s’appauvrit, la pensée s’appauvrit et donc l’esprit critique s’appauvrit et donc on va être récupéré par la machine. La formulation d’une pensée ne peut se faire qu’en écrivant la langue.

Cela suscite déjà beaucoup de débat et de réflexion au sein de l’école, tant chez les enseignants que chez les élèves : avantages, opportunité, risques, limites.

C’est surtout vu comme une opportunité de développer mieux l’esprit critique et de pousser plus loin dans l’approfondissement de certaines compétences.
C’est une porte d’entrée plus ludique dans la philosophie : faire réfléchir sur notre singularité d’Humain.
Fournit aussi une porte d’entrée plus ludique, plus philosophique sur notre rapport à la machine et sur ce qui définit notre singularité d’être humain.


A Charleroi  : “Cité des métiers” avec un grand chantier, un espace Orientation tout au long de la vie. Le but est de donner des informations sur les nouveaux métiers : école, formation et culture, promotion de nouveaux métiers, formation au début de carrière et reconversion (marché l’emploi)...
Énormément de gens vont devoir transiter d’une compétence à une autre.
GPT va faire trembler beaucoup de monde.

Pour cette “Cité des métiers” de Charleroi, ChatGPT est donc un outil utile, pas très malin, qui émet beaucoup d’âneries.
On peut le situer comme un robot neuronal.
Les robots mécaniques nous avaient déjà remplacé sur la partie mécanique.
Dans le domaine du texte (journalistes, professeurs, écrivains, comptables etc. ) ce sera un compagnon, un aide de camps pour des tâches limitées très conscrites. Il aura toujours besoin de relecture, d’une évaluation, surtout dans les traductions.

Il va faciliter la rédaction de mails : beaucoup de choses sont automatisables, avec des commandes simples à cocher. Par exemple la programmation de sites internet, des fiches de projets...

Ça va nous interroger. La question qui va ne se poser à nous, c’est “est-ce que je n’aurais pas mieux à faire que de produire du texte quand chat GPT peux le faire et moi le relire ?"

Autre fonction : pour les experts en RH, les juristes, les comptables, etc. ne sera pas utile parce que pas intelligent or la loi est une question d’interprétation. Le travail d’un juriste est incompréhensible pour lui.
La question essentielle est l’explicabilité. Il n’y a pas d’explicabilité parce qu’il ne peut pas expliquer ce qu’il dit.

En outre, il donne des réponses fausses.

Concernant le codage informatique  : Pour un travail fastidieux,
“Pour un travail informatique à faire, qui peut être énorme, par exemple un fichier à faire, Chat GPT m’a fait 90 % du travail correctement. On peut considérer que c’est comme une relation avec un autre être humain, comme avec un collègue débutant qui n’est pas bon en tout, et dont le travail est à surveiller.
Car quand il ne sait pas, il invente, c’est donc un collègue mythomane qui va nous faire croire qu’il est bon. Prétentieux, il va essayer de vous persuader qu’il a raison.

Dans les services publics : On va “brainstormer” en compagnie de GPT. Ses réponses seront consensuelles.
Exemple de question qu’on peut lui poser :
 Comment annoncer une mauvaise nouvelle à son équipe en évitant de la démotiver ?
 Cite-moi 50 éléments à ne pas négliger quand on organise une réunion.
Ses réponses sont toujours extrêmement consensuelles, clairement peu originales et créatives, mais ma réflexion sur cette base me permets en général d’obtenir un bon plan d’action beaucoup plus facilement et surtout en évitant d’omettre un élément qu’il serait gênant d’oublier.

Conclusion  : c’est en quelque sorte un brainstorming entre neurones artificiels et neurones humains mais qui implique d’être parfaitement conscient des limites de l’outil.

Utilisation de quantité de secteur

Penser politiquement et socialement, accompagner et peut-être aussi encadrer, avec de vrais plans de formation à long terme.

Au niveau mondial, européen, on ne contrôle pas le marché. Mais ce qu’on doit travailler ce sont des plans de transition, les plans d’accompagnement dans l’entreprise. Il y en a qui s’en sortent avec ces changements, D’autres sont en perte de sens et vont se cramer, démissionner.
Notre bonheur collectif va dépendre d’une capacité a accompagner chaque individu dans ces transitions qui vont être extrêmement rapides. Avant on parlait de 20 ans puis on a parlé du 15 ans puis de cinq ans, maintenant on parle de deux ou trois ans dans certains secteurs.
(Cf. les paysans : ils étaient 80 %. Maintenant 2% !)

Quand aux métiers de la presse, du langage, on va devoir recentrer le travailleur sur les activités de haut niveau. Par exemple pour reformuler, avoir une orthographe correcte…

Recherche scientifique. Marius Gilbert, dans une carte blanche (Le Soir), explique dans dans la publication d’une recherche, pour une partie introductive et la synthèse biographique, GPT c’est OK. Il fait ça très bien. Cela va augmenter la production des recherches. Mais...

1. Quand il s’agit du contenu, il y a les effets pervers : risque de perdre l’étape importante de la lecture des autres recherches.
2. On risque d’avoir des articles standardisés que personne ne lira.
Risque d’écrire beaucoup d’articles qui ne seront pas lus par d’autres chercheurs, sauf par ChatGPT ! le tout menant à une inflation inutile du nombre d’articles ! Au profit de qui ? Essentiellement au profit des éditeurs scientifiques qui profiteront énormément de cette inflation d’article.

Bref, utiliser à bon escient.

Regard philosophique

Qu’est-ce que l’humain fait qu’une intelligence artificielle est incapable de faire ?
Cet outil ne cherche pas à dire quelque chose de vrai (comme Wikipédia). Il n’a d’ailleurs pas de croyance, pas de savoir. Ce n’est pas une base de données qu’on va pouvoir consulter.
 Son mode de fonctionnement est tel que ChatGPT n’en a que faire de la vérité. C’est un “baratineur universel”, le producteur universel de baratin, au sens de “phrase qui n’est pas dirigée par la norme de vérité.”

Prendre un texte de GPT comme un texte truffé de choses vraies et de choses fausses, sans la possibilité de savoir où se situent les choses exactes et les choses fausses.
Il faut donc être très attentif et très critique par rapport à ce qu’il raconte.
prendre pour acquis le fait qu’il n’est pas motivé par le besoin de tendre vers la vérité mais conçu pour donner l’apparence de la crédibilité : c’est un outil d’imitation : il est excellent dans l’imitation de la pensée. Il imite très bien donc il donne l’impression qu’on est entrain de dialoguer avec une personne.
C’est un prédicteur de texte.

Toutes les tâches cognitives encore typiquement humaine de haut niveau comme contextualiser, problématiser, conceptualiser, argumenter, évaluer, juger, toutes ces compétences qu’on agrège sous le terme d’esprit critique, est hors de sa portée.
Sans parler de l’émotion, de la conscience...
Ce n’est pas une intelligence, c’est une entité qui fait des choses intelligentes.

L’infrastructure nécessaire : demande une puissance de calcul gigantesque et des espaces de stockage immense sur des serveurs. Tout cela a un coût très élevés, qui réserve aujourd’hui le jeu à de grands acteurs commerciaux, principalement les GAFAM, dont la position dominante dans toute une série de nos échanges pose déjà question. Tout cela ne va rien arranger.

N. Van Zeebrouck :
Chat GPT représente une exigence en terme de calcul qui est nettement supérieure à celle d’une simple recherche sur Internet. Cela a un coût financier qui va devoir à un moment ou un autre être répercuté sur les utilisateurs.
Le processus habituel c’est qu’au fur et à mesure les demandes avec la volonté de satisfaire la demande des utilisateurs sera de leur faire vivre une expérience satisfaisante à moindre coût... et puis, au fur et à mesure qu’on déplace le curseur, on pervertit complètement le modèle.
C’est le vice traditionnel des plates-formes.
Par exemple chatGPT pourrait balancer la publicité insidieusement dans les conversations, ce qui risque de pourrir l’expérience et de la rendre rendre inutilisable. L’outil va devenir pourri.
C’est toujours en combat difficile pour les moteurs de recherche.

Donc
1. Il n’est pas certain que, à terme, l’outil va rester gratuit pour l’utilisateur, parce que le coût est important.
2. C’est l’infrastructure qui est derrière qui fait tourner cette intelligence artificielle. Il y a un enjeu très important avec cette infrastructure. Actuellement il n’y a qu’un petit nombre d’entreprises au monde qui ont l’échelle suffisante, l’infrastructure pour faire tourner ça correctement.

On va créer des clones, des infrastructures plus décentralisées. En Europe, dans le secteur académique... Pour le moment ça pourrait renforcer le pouvoir des GAFAM.
Quant au coût de l’interrogation sur ChatGPT, le Président d’alphabet (Google) parlait d’un coût multiplié par 10 par rapport à une recherches Google traditionnelle.
Ajoutons les dépenses énergétiques qui vont monter en flèche.
Enfin, le risque d’une concentration du pouvoir.

Affaire à suivre...