ChatGPT : une contribution dangereuse à une standardisation croissante ?

ChatGPT est un outil – et je choisis sciemment ce mot – d’intelligence artificielle (IA), et une « créature » de la société OpenAI, fondée par Sam Altman. Il est accessible au grand public depuis déjà huit mois (novembre 2022) et il est gratuit, ce dont les utilisateurs doivent toujours se méfier. Cette machine connaît un succès phénoménal. Paradoxalement, certaines personnes – dont les créateurs – nous mettent en garde sur les dangers de l’IA. L’intérêt du grand public pour l’intelligence artificielle s’est accélérée avec la médiatisation de ChatGPT, et ce sont maintenant 350 chercheurs du monde entier, dont les fondateurs de l’IA et ceux de ChatGPT, qui signent une déclaration sur le site du Center for AI Safety, faisant part de leur grande inquiétude sur les conséquences de son utilisation sur l’humanité : “Atténuer le risque d’extinction lié à l’IA doit être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires.”.
Mais au quotidien, pour chacun d’entre-nous, à quoi devons-nous nous attendre ? Que nous soyons l’utilisateur lambda ou un professionnel du langage (rédacteur, traducteur, auteur, etc.), que nous réserve cette technologie de plus en plus performante ? Des jours désenchantés ?

Loin de moi l’idée de faire un développement exhaustif de ce qu’est l’IA. Cependant, pour appuyer mon propos et donc mon avis sur l’utilisation de ChatGPT et ses conséquences, je dois rappeler quelques notions. Depuis longtemps, la société américaine IBM s’est opposée à l’utilisation du terme d’intelligence artificielle, lui préférant celui d’intelligence augmentée voire d’augmentation de l’intelligence. En effet, l’idée est de combattre les fantasmes ou les délires car l’IA est associée invariablement et plus ou moins consciemment au domaine de la science-fiction. Il ne faut pas oublier que l’IA est au service des humains, créée par des humains, et IBM ou d’autres compagnies souhaitent mettre en avant le rôle d’assistance de la technologie d’une part, et éviter la confusion avec les initiales de l’intelligence artificielle, d’autre part. 
ChatGPT est un agent conversationnel – comme les chatbots qui vous ont bien fait rire – mais en nettement plus sophistiqué. Il repose sur la technologie de l’apprentissage profond, sous-catégorie de l’apprentissage machine, elle-même sous-catégorie de l’intelligence artificielle. Le T du nom correspond à des modèles de génération de langage appelés Transformers. Le modèle de langage GPT-3 est une architecture de réseaux de neurones de 175 milliards de paramètres. ChatGPT sert à répondre à des questions, à écrire un devoir, à corriger ou à rédiger un programme informatique avec ce qu’il aura récupéré sur Internet. Il est programmé pour imiter le langage humain dans plusieurs langues et a enregistré des mots, des parties de phrases et leur probabilité d’association. Il est programmé pour ne pas fournir toujours la même version à une question identique, et il bénéficie d’une formation par des humains qui classent ces différentes réponses, comme une optimisation.
Cet outil n’est rien d’autre qu’un outil de digestion d’une quantité astronomique de données récoltées sur internet.
Un outil qui existe depuis bien longtemps mais qui a bénéficié d’une excellente politique de marketing. Rien de neuf dans l’univers de la programmation. Si, à votre demande ou à votre interrogation, il peut vous délivrer une nouvelle écrite – voire un roman – selon le style de tel auteur, ou une recette de gâteau au chocolat, il est très probable qu’il crée également de toutes pièces de fausses informations qui seront réinjectées sur Internet et qui contribueront à les démultiplier. On assiste ainsi à un phénomène d’amplification des fausses informations.

Dans mon entourage, celles et ceux qui peinent à rédiger ou pensent qu’ils ne sont pas créatifs ne cachent pas leur enthousiasme sur cet outil qui fera le boulot pour eux : pas de fautes d’orthographe – pour ce que j’ai pu voir – et des phrases toutes faites. Je me dis que cela n’a pas forcément beaucoup de conséquences dans la mesure où ils utilisent le modèle pour générer des billets à publier sur leurs réseaux sociaux déjà saturés de messages normés, c’est leur univers. Bienvenus, hormis pour quelques cas de créatifs, dans le monde de la banalité, de billets convenus et de photos trafiquées !
À cette intensification de la banalité s’ajoute la question de l’origine de l’information, des sources. Quand nous faisons nous-mêmes des recherches sur Internet ou dans des livres et des articles, nous pouvons recouper les informations récoltées, pour trier le vrai du faux, et nous avons connaissance des sources des auteurs, principalement dans les notes de bas de page. 
Wikipédia, moquée à sa création, a mis en place une politique de chasse aux erreurs ou aux fausses informations, grâce à une multitude de bénévoles dans le monde entier. Cette encyclopédie collaborative est très rigoureuse sur ses sources, et les informations intégrées par des personnes qui y participent gratuitement sont constamment vérifiées par des modérateurs. Si une information et une position dans un texte paraissent sensibles ou très subjectives, ou bien tout bonnement fausses, elles sont signalées à tout lecteur, et rectifiées le plus vite possible. 
Ce n’est pas le cas de ChatGPT. Au-delà d’une pratique douteuse – la machine de deep learning est incapable de citer ses sources – il se pose bien évidement un problème pour les intellectuels, les auteurs, les créateurs. Car ChatGPT se sert tranquillement dans le travail de celles et ceux qui pensent, de celles et ceux qui ont réfléchi pendant des heures, des mois, des années sans qu’aucun crédit ne leur soit accordé. Déjà, deux auteurs nord-américains attaquent en justice OpenAI. Ils sont persuadés que leurs livres sous copyright ont été illégalement « ingérés » et « utilisés pour entraîner » ChatGPT, d’après la plainte qu’ils ont déposée.
Par ailleurs, la machine est entraînée pour ne pas heurter des sensibilités, et l’on a donc affaire à un système basé sur de la censure conçue par une équipe restreinte. Donc, un petit nombre de personnes va déterminer ce qui sera éthique. Il est inquiétant de penser que, quelle que soit l’orientation de différents groupes, si l’outil est entre les mains d’un pouvoir politique liberticide, nous aurons des résultats très orientés car expurgés.
Ce que je crains le plus n’est pas l’utilisation massive de ChatGPT. Après tout, si l’outil est bien utilisé, si les questions ou les demandes sont bien posées, ce qui suppose que l’utilisateur a déjà un esprit bien formé, ou mieux un esprit critique, l’exercice peut être intéressant. Non, ce qui me contrarie, au-delà de l’amplification des fausses informations qui n’a pas attendu cette machine, c’est l’uniformisation de ce monde. Déjà, avec les GAFA, dans les pays qui ont accès à leurs outils, cela contribue à ce qu’un danois, un mexicain, un sénégalais ou un japonais absorbe sans ciller une culture d’un seul pays et s’y glisse, s’y conforme.

Il ne faut jamais oublier qu’il y a toujours, derrière la machine ou un programme informatique, des humains et leurs biais cognitifs. Il est bien connu que le monde du développement informatique, en majorité investi par des jeunes hommes, blancs, est confronté à la question des biais. Or, qui dit biais dit déformation de la réalité du monde et de sa nature complexe, et dit donc résultats faux et prises de décisions inadaptées. Les entreprises utilisent l’outil informatique pour accélérer des calculs qu’aucun humain ne pourrait faire avec une telle vélocité, obtenir des résultats très rapidement. Mais si les données sont fausses, alors les résultats le sont également et la question légitime que l’on peut se poser : quel est l’intérêt ?
Parmi les biais recensés dans le monde informatique, il y a le biais algorithmique qui correspond aux biais des personnes impliquées dans le développement de ses algorithmes et les prises de décision. Or à la base de ces modèles de langage – ChatGPT ou Google Bard – les données rentrées sont très importantes, et doivent être bien sélectionnées pour éviter que les biais, conscients ou inconscients, viennent fausser les résultats et entraînent une amplification des discriminations sociales et économiques. Si les données ne sont pas représentatives de la complexité du monde réel, alors le résultat est évident : on assiste à un accroissement des discriminations, notamment sexistes et racistes. Et cela ne va pas s’arranger pour les femmes si j’en crois la lecture d’un article du Guardian, relatif au rapport du Gender Social Norms Index qui relate que 90% des personnes interrogées, hommes et femmes, ont des préjugés vis-à-vis des femmes. Pourquoi le monde du développement informatique y échapperait-il ? Par exemple, pour ChatGPt, un avocat sera un homme et un infirmier forcément une infirmière. La belle affaire, me direz-vous ! Mais si l’IA sert à renforcer les situations d’inégalité, on ne peut pas affirmer que l’outil participe au progrès. Le développement informatique est conscient de ces biais mais il reste tant à faire pour trouver un équilibre entre une politique de collecte de données assez libre – quitte à y intégrer certains biais de la société – et un interventionnisme soutenu qui impose une sélection des données en amont par un petit groupe qui décide, et qui implique d’autres biais.

Et les auteurs dans tout cela ?
Il semblerait que le monde des scénaristes commence à s’intéresser également à l’utilité de ChatGPT dans la rédaction de scénarios de cinéma et de télévision. Dans un contexte, aux États-Unis, de grève des auteurs de scénarios pour le cinéma et la télévision depuis le 2 mai dernier, on peut penser que cette nouvelle technologie fera beaucoup de mal dans le milieu. Le temps que celui-ci s’en empare et le teste, peut-être. Mais, en définitive, lorsque je lis des scénarios français ou étrangers, lorsque je m’enferme dans une salle obscure, je dois avouer que je suis déjà, bien avant la possibilité d’utilisation de cet outil, effarée par la similitude de scènes, de dialogues, de scénarios. L’industrie du cinéma a déjà normalisé les potentiels succès avec une liste d’ingrédients à respecter, et il suffit de visionner les téléfilms – certains avec un soupçon de « Nos régions ont du talent » – pour se rendre compte que la créativité, la singularité ne sont pas souvent au rendez-vous et ne sont pas, en France, une condition à l’obtention de subventions ou d’un financement public. La masse de films au scénario convenu ne sera pas plus importante avant ou après ChatGPT qui ne peut être moins talentueux que beaucoup de scénaristes-réalisateurs, ce qui rejoint ce que j’écrivais plus haut sur la génération d’une pléiade d’histoires, ou d’idées, déjà lues, vues, quelconques. Bref, la banalité et l’uniformisation n’ont pas attendu ChatGPT.
Ce qui est le plus préoccupant, c’est l’invisibilisation des créateurs, parmi eux, les auteurs.
L’outil n’est pas programmé pour utiliser des données libres de droits ou tombés dans le domaine public, et se sert allègrement – sans citer ses sources, car il n’est pas programmé pour, je le rappelle – dans des parties de textes rédigés par des hommes et des femmes qui y ont mis leurs idées, leur temps, leur passion et ne seront pas reconnus et/ou rémunérés pour ce à quoi ils auront contribué.
La Ligue des auteurs professionnels a publié récemment un document de travail relatif aux impacts des intelligences artificielles sur les métiers de la création. Il est vrai qu’à chaque fois, comme pour la grève des scénaristes américains, le nerf de la guerre est la rémunération, la valorisation du travail des auteurs, leur visibilité et la reconnaissance de leur travail et de leur talent. Et c’est un sujet primordial. Il existe, grâce à la législation européenne, un droit appelé “opt out”,  qui “permet de s’opposer à ce que son œuvre soit l’objet d’une fouille par une IA”. Or, elle est “ineffective dans le cas des textes et des images”. Aussi, puisqu’il ne coûtera rien à une entreprise de générer des œuvres en copiant le style de tel ou tel créateur (on pense notamment à la bande dessinée), cela met en péril non seulement le monde des auteurs mais aussi celui des maisons d’éditions censées ajouter de la valeur au talent de l’auteur. Ce syndicat professionnel demande une législation et un contrôle accrus tout en soulignant qu’en plus de la perte d’emplois dans de nombreux secteurs liés aux auteurs, l’hégémonie de la culture d’un seul pays serait préjudiciable à “l’exportation de la culture française”.

Je ne peux que les rejoindre sur ce dernier point car si je ne suis pas effrayée par l’intérêt que suscite ChatGPT, tant par le grand public que par les professionnels, je crains que ce modèle de génération de langage contribue fortement à l’amplification de l’uniformisation de ce monde. Quant au talent, la machine – et certainement pas les développeurs derrière leurs écrans – ne sera jamais un concurrent sérieux. Et à la différence de la société IBM, je crois que ce n’est pas tant le terme « artificiel » qu’il faut éviter que celui d' »intelligence ».

Inscrivez-vous pour recevoir mes articles dès leur publication !

Pas de spams ici ! Consultez la politique de confidentialité pour plus d’informations.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut