Faut-il avoir peur de ChatGPT ?
Faut-il avoir peur de ChatGPT ?
Derrière ses extraordinaires capacités, l’intelligence artificielle, apparue il y a six mois, soulève des questions essentielles liées aux relations humaines et à la démocratie. Mieux vaut en prendre conscience.
Publié le
· Mis à jour le
Une étudiante a vu son amende liée à un problème de stationnement annulée grâce à sa lettre de contestation troussée par… ChatGPT. Cette même intelligence artificielle (IA) a rédigé, à 90%, la question parlementaire posée en février dernier par le député bruxellois Jonathan De Patoul, concernant son utilisation à l’école. À l’Université de Strasbourg (France), une vingtaine d’étudiants se sont fait aider par elle pour un questionnaire portant sur l’histoire du Japon. En quelques mois, l’IA lancée en novembre 2022 par la société américaine OpenAI a déferlé sur le monde, stupéfiante par ses potentialités jusqu’alors réservées à la science-fiction et à l’imaginaire. En 1953, par exemple, dans La Grande Grammatisatrice automatique, l’écrivain britannique Roald Dahl concevait une machine pouvant composer des nouvelles et des romans en adaptant le style, le ton, le contenu à la demande. On est là aujourd’hui : ChatGPT est capable de produire un texte sur quasiment n’importe quel sujet. L’appel l’a d’ailleurs expérimenté en lui demandant une réflexion sur le thème “Du désespoir à l’espoir” (voir l’édito de notre numéro de février dernier).
UN OUTIL BLUFFANT
Sans pour autant garantir leur exactitude, comme le montre l’expérience vécue par Vincent Engel. Lorsque l’écrivain belge lui a demandé une notice biographique sur lui-même, le robot l’a vieilli d’une dizaine années et lui a attribué des livres écrits par d’autres (Pierre Mertens et… Patrick Poivre d’Arvor), lui décernant même le prix Rossel (qu’il n’a jamais eu). « C’est un outil assez bluffant, constate l’intéressé, qui préfère en rire. Sur des domaines qu’il maîtrise bien, il fait des synthèses très correctes, il faut seulement vérifier leur pertinence. Mais ce n’est rien d’autre qu’un outil, il enfile des lieux communs, des phrases toutes faites. » Aux yeux du formateur belge Guy Edgard Botson, qui travaille pour des entreprises, des centres de compétence et des écoles, « c’est indéniablement positif », pour autant que soit maintenu un équilibre entre l’IA et les interactions humaines. « Vous pouvez par exemple lui demander de raconter une même histoire pour quelqu’un de deux ans ou de 15 ans, en insistant sur le côté soit tragique, soit humoristique. Ou un texte sur Napoléon pour un enfant ou pour un universitaire. Il va alors adapter le contenu et son langage. »
Comme tendraient à le prouver les quelque deux cents livres vendus sur Amazon dont il est l’auteur ou le co-auteur, ChatGPT serait-il un écrivain en puissance ? « C’est un pacte avec le diable, vitupère l’auteur de thrillers Éric Giacometti. Le processus de création, quand vous créez des personnages et une histoire, ça ne se fait pas d’un seul coup. Ce sont des couches successives, une alchimie, c’est quelque chose de très subtil. Il y a une étincelle humaine à la base, et si vous confiez à une machine le soin de créer quelque chose en lui donnant des outils, et qu’ensuite cette IA se réapproprie votre pensée pour en faire quelque chose d’autre, c’est faustien. » Pierre de Mûelenaere, directeur des éditions bruxelloises Onlit, s’est posé la question à la lecture d’un tapuscrit reçu d’un auteur qu’il ne connaissait pas : « Comment peut-on savoir comment a été produit un texte ? » Ajoutant « qu’il est tout à fait possible de donner à “manger” à ChatGPT tous les livres publiés par Onlit et, à partir de là, de lui demander d’en écrire un. »
ARTICLES DE PRESSE
Forte de ses “connaissances”, cette IA est également à même de signer des articles de presse. « Si les algorithmes sont en mesure de structurer, d’écrire plus vite et (bientôt) aussi bien que l’humain, observe par exemple le journaliste Christophe Charlot dans Trends, ils doivent se baser sur un contenu factuel nouveau qui doit leur être fourni. Et cela restera le propre du journaliste. Le vrai. Pas celui qui recopie un communiqué ou une dépêche. Ce sera alors bien grâce à la révolution ChatGPT que le journalisme retrouvera enfin ses lettres de noblesse… » Et les enseignants, doivent-ils s’inquiéter ? Guy Edgard Botson ne le pense pas. « ChatGPT peut être un complément précieux en leur fournissant des ressources, leur permettant ainsi de consacrer plus de temps à des tâches pédagogiques plus essentielles, comme le soutien aux élèves. Il est disponible 24h/24, 7 jours/7 et offre une assistance personnalisée aux étudiants qui doivent néanmoins garder leur esprit critique. »
Au-delà de ces divers aspects, cette IA révolutionnaire pose de nombreuses questions fondamentales. Comme celle liée à la dimension relationnelle que Mathieu Peltier, professeur de philosophie et chroniqueur à la RTBF, est l’un des rares à soulever. « Le danger vient surtout de la façon dont la machine peut parasiter notre faculté de patience et de tolérance dans les relations humaines. Comme les réseaux sociaux ont nui à notre capacité d’attention et de concentration, je me demande dans quelle mesure ChatGPT ne pourrait pas diminuer notre capacité relationnelle. L’autre ne peut en effet que souffrir de la comparaison avec une IA toujours disponible, précise, calme, prête à se remettre au travail sur nos ordres. C’est effrayant, car l’intérêt de l’expérience humaine est au contraire d’accepter l’autre dans sa lenteur, dans sa manière différente de voir les choses. L’autre nous sort de notre zone de confort. Il apparaitrait ainsi moins intéressant, moins utile. »
SE SENTIR UTILES
« On entend souvent dire que l’IA va remplacer l’humain, remarque Guy Edgard Botson. Je pense plutôt que ce sont ceux qui la maitrisent qui vont prendre le travail qui ne la maîtrisent pas. » Cette question de la remplaçabilité, Mathieu Peltier la lie à celle d’utilité. « Le nombre de choses qu’elle prend en charge étant extrêmement important, comment les gens pourraient vivre de ne plus se sentir utiles ? La meilleure façon d’anticiper est de ne pas céder à la peur panique, mais de comprendre le phénomène. Si on arrive à identifier ce qui est problématique, les conséquences dramatiques possibles, on peut s’adapter, ce que l’humain a toujours été capable de faire. »
Dans une tribune parue dans Le Soir le 17 février dernier, Jacques Folon, professeur à l’ICHEC et à l’USaint-Louis, se pose, quant à lui, la question du respect du droit d’auteur, ChatGPT ne citant pas ses sources. « Il a été nourri avec plusieurs centaines de milliards de mots, dont certaines données à caractère personnel, et ce, sans aucune autorisation. De plus nous n’avons aucune possibilité de voir si des données nous concernant ont été collectées ou sont utilisées. » Dans un numéro de l’hebdo Le 1, le philosophe et informaticien Jean-Gabriel Ganascia va encore plus loin lorsqu’il pointe un autre péril qui met en jeu la démocratie elle-même. Pour lui, en effet, le vrai danger, « ce n’est pas que les robots prennent le pouvoir, mais le pouvoir d’ores et déjà pris par des groupes privés géants, aux mains de personnalités imprégnées de l’idéologie libertarienne comme Elon Musk, qui veulent s’affranchir des États au nom de la liberté des individus ».« C’est une forme de totalitarisme qui se met en marche », s’alarme-t-il.
Michel PAQUOT
