Un consultant en ressources humaines me confiait récemment avoir demandé à ChatGPT de lui rédiger une proposition pour un prospect. Le résultat l’a sidéré : " Je n’aurais pas mieux fait…", avoue-t-il, concluant qu’il serait peut-être arrivé à une même qualité de résultat, mais au prix de longues heures de travail. Or, ChatGPT lui a répondu en quelques secondes ! Y a-t-il imposture ? Faut-il révéler à son interlocuteur que l’on a utilisé l’Intelligence artificielle (IA) en lui présentant un document professionnel ?
Pas toujours ?
La remarque "tout le monde le fait" n’est pas suffisante pour répondre à cette question éthique. Dans un premier temps, on peut penser ne pas avoir l’obligation de toujours révéler ses outils de travail. Reformuler un email avec l’IA, vérifier une information ou trouver de nouvelles idées via ChatGPT est non seulement de bonne guerre, mais peut se montrer un signe de professionnalisme. L’IA est par exemple une aide précieuse pour restituer le compte rendu d’une réunion. À charge de vérifier la synthèse et d’apporter les modifications nécessaires, mais que de temps gagné ! Quelle satisfaction de voir allégée cette partie ennuyeuse du travail !
Il n’empêche. Personnellement et quand c’est le cas, je révèle à mes clients que je leur restitue mes comptes-rendus avec l’aide de l’IA. En les trouvant excellents et surtout très rapides, l’un d’eux m’a même demandé quelle application j’utilisais ! Mais s’en remettre à l’IA pour élaborer l’intégralité d’un document ? Ici la question éthique s’annonce incontournable.
Savoir apprécier les résultats de l’IA
Petit détour préliminaire : le professeur Laurent Alexandre qui aligne plus de trente années d’expérience en cancérologie remarque que si l’on devait comparer ses connaissances médicales avec celles d’un infirmier qui interroge ChatGPT, celui-ci serait jugé plus performant dans la connaissance brute. Ce qui semble indiscutable. Mais lequel d’entre eux est capable d’évaluer la justesse des données qu’apporte ChatGPT ? Il est fort probable que Laurent Alexandre, mieux que l’infirmier, appréciera ces résultats à leur juste valeur, en raison de sa culture et de son expérience irremplaçable.
Signer, commenter, assumer
Dans son dernier livre (IA : grand remplacement ou complémentarité ? , éd. de l’Observatoire), Luc Ferry remarque qu’il vaut mieux organiser une complémentarité intelligente entre l’IA et l’élève plutôt que l’interdire. Cette remarque pertinente vaut, me semble-t-il, pour le monde professionnel, où une nouvelle culture se dessine : travailler avec l’IA plutôt que sans son aide, est en passe de devenir une norme. À terme, cela va-t-il amoindrir notre capacité d’élaborer ou de réfléchir ? Il y a là un vrai danger que je ne développerai pas ici. Mais produire des documents de qualité avec l’IA force à révéler une forme de cosignature. Et ceux qui s’en cachent ne vont pas duper leur monde bien longtemps ! À noter également que la compétence professionnelle va se déplacer et davantage se fonder sur l’aptitude à utiliser les résultats de l’IA : savoir les apprécier à leur juste valeur, savoir les commenter. Commenter, c’est présenter un "méta-discours", une parole pertinente. C’est une façon de montrer que même s’il ne l’a pas totalement élaboré, l’utilisateur possède une vraie maîtrise du sujet, qu’il est capable d’expliquer et d’adapter à son interlocuteur. Voilà qui permet d’entrer dans une relation de confiance, préalable indispensable d’un travail commun.
Last but not least… dans un contexte complexe, l’IA est capable d’ouvrir la voie à une prise de décision. Pour le coup, si une décision est nécessaire, elle doit être totalement assumée par la personne qui utilise l’IA. En aucun cas, on ne peut prétexter son utilisation pour se désengager de sa responsabilité.
Où commence l’imposture et où elle se termine
On pourra donc distinguer trois niveaux d’imposture : premièrement, dissimuler l’utilisation de l’IA, surtout quand le document présenté est à fort enjeu ; deuxièmement, masquer son manque de compétence, son incapacité à commenter les données recueillies de façon pertinente et personnalisée ; troisièmement, reporter sur l’IA la responsabilité d’une décision quand celle-ci se révèle une erreur. L’IA n’est jamais l’auteur d’une décision que l’on a prise grâce à elle.