mercredi 29 mars 2023

Robot conversationnel : anthropomorphisme et narcissisme

 

Parlons de ChatGPT avec Francis.

Robot conversationnel : anthropomorphisme et narcissisme


26 mars 2023

On traite l’arrivée du robot conversationnel ChatGPT en cédant à l’anthropomorphisme. C’est un peu normal dans la mesure où cette machine a pour but de simuler une interaction avec un être humain. Il convient tout de même de rappeler que cette agglomération d’algorithmes est un outil dont le fonctionnement dispose des positions allumage et arrêt, et que personne n’est obligé de considérer sa production comme une opinion. La machine est programmée pour le dire elle-même. Elle n’a ni opinion (position personnelle argumentée) ni sens critique. Elle n’est pas conçue pour donner des conseils.

Avec les textes, le robot conversationnel opère comme le faisaient déjà les calculettes avec les nombres dans les années 1970 : il donne la réponse à des questions telle qu’on peut la trouver en compulsant des données existantes. Certes, il agit avec beaucoup plus de puissance que la calculette, étant capable de répondre à un grand nombre d’interlocuteurs en même temps, et cela dans la plupart des langues les plus utilisées dans le monde, bien qu’il manifeste explicitement une nette préférence pour l’anglais.

Il est remarquable que les commentateurs et commentatrices s’étonnent de recevoir les réponses attendues. Le robot est pourtant conçu pour ça. D’ailleurs, quand on corrige ses énoncés inadéquats, sa réplique est très justement : « Je suis désolé de ne pas avoir fourni la réponse que vous attendiez. »

Malgré les erreurs, les approximations, l’absence de citation des sources, l’appareil reste comme un miroir que l’on se tend à soi-même : les réponses de ChatGPT sont déjà contenues dans les questions qu’on lui soumet et il est facile d’orienter la suite de l’interrogation de telle façon qu’on pourra obtenir le retour souhaité même si on sent toujours une forme simulée d’hésitation, les programmatrices·programmateurs des algorithmes ayant prévu l’utilisation fréquente des modalisateurs : le verbe pouvoir dans ses nombreuses déclinaisons, l’adjectif possible et ses divers synonymes, les adverbes peut-être, souvent, parfois, l’expression considérer comme, etc.

Toutefois, pas plus que la calculette, le robot conversationnel n’a d’initiative. Pas plus que la calculette, il ne trouve de réponses qui n’existaient pas encore. Et surtout, il n’a aucune originalité. La capacité créatrice du robot est très limitée. On n’y trouve aucune pensée originale. C’est normal, les résultats sont basés sur des textes existants et l’apparente création de nouveaux textes résulte du brassage des premiers.

En ce sens, muni du texte de toutes les décisions de cour, ChatGPT pourrait être un outil formidable dans la recherche de la jurisprudence. Cependant, il faudrait qu’il donne ses sources de manière très précise pour qu’on puisse procéder à la vérification et même à la contre-vérification.

Testé sur des questions littéraires, ChatGPT a apporté la réponse attendue quand il s’agit de l’utilité des genres en littérature. Ils permettent le classement et facilitent la recherche pour les lectrices et les lecteurs.

Mais à la question nécessitant une réflexion personnelle de savoir si le style appartient à l’œuvre ou à l’auteur·e, il a été incapable de faire valoir que le style d’un·e auteur·e peut varier, que l’œuvre impose souvent un style et que l’auteur·e s’étant détaché·e d’une œuvre peut adopter un style différent, ce qui laisse alors le style à l’œuvre.

À la commande de composer une chanson sur la circulation automobile dans le style de Trénet, il a produit un résultat d’une simplesse navrante, étant incapable de créer une simplicité étudiée, résultat d’un travail d’épuration (ce qui aurait demandé de l’intelligence), pour fournir une simplicité copiée (ce qui verse dans la simplesse). Il a mis des la, la, la, la comme on en trouve parfois dans les airs du bon Charles, mais de façon tout à fait aléatoire alors qu’ils sont toujours liés à un contexte chez le troubadour narbonnais.

Il a d’ailleurs produit un texte quasi identique quand je lui ai par la suite demandé une chanson sur le même sujet dans le style de la Bolduc, remplaçant son incontournable turluttage (tam didlidam, etc.) par de semblables la, la, la, la, qui n’existent pas dans l’œuvre de Mary Travers.

J’ai voulu savoir quelle différence la machine faisait entre simplesse et simplicité. Elle a répondu que la simplicité s’applique aux choses simples et claires, mais que la simplesse pouvait être associée à une absence de qualité ou à une pauvreté. J’ai dû la corriger à l’effet que la simplesse est en fait un défaut et une limitation de l’esprit. Le robot a répondu qu’il comprenait tout en répétant que la simplesse pouvait être considérée comme un manque de raffinement ou de subtilité. J’ai alors signalé qu’il répétait la même erreur. Il s’est excusé, mais est resté sur le mode de la modulation plutôt que de l’affirmation en disant que « la simplesse est souvent considérée comme une absence de qualité. » Cela signifie que l’ensemble des textes auxquels il a accès ne disent pas clairement que la simplesse est une absence de sophistication.

Après lui avoir fait lire mes billets, j’ai voulu savoir si on pouvait me considérer comme un homme de droite ou de gauche. ChatGPT s’est déclaré incapable de trancher même si c’est une évidence telle que, comme l’aurait dit mon parrain, « un aveugle pourrait voir ça avec ses pieds ». Il faut comprendre comment fonctionne la machine : elle compare des textes pour sortir des conclusions. Elle ne dispose pas d’un processus de réflexion.

Quand je lui ai demandé pourquoi il y avait quelque chose plutôt que rien, elle a ressorti des idées convenues sur la création du monde, mais aucune réflexion philosophique sur ce qui oppose le rien à quelque chose. Je le rappelle, la machine n’a aucune originalité.

La formulation des phrases est très stéréotypée et répétitive au point qu’il m’est arrivé de signaler à des camarades qu’iels avaient reçu un texte rédigé à l’aide de ChatGPT. Les conclusions tout à fait mécaniques sont typiques des formulations qui permettent de sauver la chèvre et le chou avec la célèbre opposition entre « d’une part et d’autre part », soit tout ce qu’on attend d’un·e étudiant·e sans imagination et sans compréhension profonde.

Le robot reproduit l’élève bête et discipliné qui faisait la fierté des collèges classiques et des lycées traditionnels pouvant par là ce que j’en ai toujours dit : que cette forme de production scolaire n’est pas de l’intelligence, mais de la régurgitation. Et cela inquiète certainement les tenants de l’étroite vision de l’éducation selon laquelle l’enseignement consiste à remplir des cruches, ce à quoi s’opposait Montaigne en affirmant qu’il préférait les têtes bien faites aux têtes bien pleines.

Ce que le robot conversationnel remet en cause, c’est la définition carrée de l’intelligence qui consiste à mémoriser des formules toutes faites et à donner les réponses attendues à des questions stéréotypées. Cette définition-là de l’intelligence, laquelle faisait des étudiant·e·s de petits chiens savants et dociles, est désuète, et c’est très bien qu’un robot y mette un terme.

L’intelligence, c’est la capacité de comprendre, de faire des liens et de créer un contenu original grâce à ces liens. Pour l’instant, l’intelligence artificielle correspond très bien à ce qu’en disait la spécialiste américaine Kate Crawford, elle n’est ni intelligente (elle ne crée rien d’original) ni artificielle (tout ce qu’elle contient a déjà été inséré par l’humain).

Les profs qui craignent d’être remplacés par les robots conversationnels appartiennent à deux catégories :

1. Le très petit nombre de celleux qui se rendent compte que leur méthode ne fait pas appel à l’intelligence de leurs étudiant·e·s. Ils sentent le tapis leur glisser sous les pieds, car leurs méthodes répétitives et sans originalité peuvent être répliquées par une machine. Il leur faudra trouver des questions plus originales et exiger des réflexions personnelles.

2. La grande majorité : celleux qui ne veulent pas que les directions se fient naïvement à des machines et se laissent tenter par la vieille illusion que l’on peut se dispenser des enseignant·e·s. Je ne le dirai jamais assez ni assez fort : l’enseignement est une relation humaine. Il leur faudra se battre bec et ongles pour faire comprendre qu’une présence humaine est nécessaire au développement intellectuel. Je l’avais démontré dans un billet déjà âgé de près d’une décennie, les personnes qui n’ont pas besoin d’un·e guide sont rares. Celles qui se débrouilleraient juste avec un robot conversationnel sont celles qui se débrouillaient déjà avec les livres : c’est un infime minorité. Et encore, il faudrait que ces élèves aient accès aux sources originales pour pouvoir juger, car jusqu’ici ChatGPT manque sérieusement d’appui critique, ne citant pas ses sources de manière précise. Pour mémoire, je vous renvoie ici à mon billet du 12 octobre 2015 opportunément intitulé
Les nécessaires enseignantEs.

Il faudra de toute façon revenir aux examens en classe, à livres ouverts si on veut, mais sans accès aux machines pour la rédaction et avec des questions qui font appel aux capacités personnelles et engageantes de cogitation.

La blessure narcissique que ressentent certaines personnes devrait se cicatriser assez bien quand on sait que la réflexion profonde et les choix éthiques ne sont pas accessibles à cette machine. Par exemple, à la question de décider pour ou contre la peine de mort, la machine a échoué en prétendant qu’il fallait considérer les arguments en faveur et contre, en les énumérant, puis en laissant le choix au lecteur. Or, soit on est un défenseur des droits humains et on est contre, soit on n’est pas un défenseur des droits humains. C’est clair, la machine n’est pas humaine.

Francis Lagacé

«»-----------------------«»

SITE DE FRANCIS LAGACÉ

Aucun commentaire: