ChatGPT, un progrès ou un danger pour le futur vétérinaire ? - La Semaine Vétérinaire n° 1984 du 07/04/2023
La Semaine Vétérinaire n° 1984 du 07/04/2023

Intelligence artificielle

ANALYSE GENERALE

Auteur(s) : Par Fabrice Jaffré

Les avancées technologiques jouent un rôle important dans l’évolution de la médecine vétérinaire : robots chirurgicaux, télémédecine, objets connectés, outils de réalité augmentée et virtuelle, ou encore intelligence artificielle. Cette dernière semble avoir franchi encore une dimension supplémentaire depuis la sortie de ChatGPT.

« GPT4 a sauvé la vie de mon chien », affirme le dénommé Cooper sur son compte Twitter le 25 mars dernier1. Sassy, une femelle border collie, soignée par un vétérinaire pour une piroplasmose, voyait son état s’aggraver. Cooper a alors interrogé le robot en ligne ChatGPT en lui fournissant les symptômes mais aussi les résultats complets des analyses sanguines. Après quelques échanges, ChatGPT a proposé plusieurs diagnostics, dont l’anémie hémolytique à médiation immune. Une consultation chez un second vétérinaire a confirmé cette hypothèse.

Que l’histoire soit vraie ou inventée, le buzz est là : le tweet a été consulté 9,7 millions de fois, et l’information a été relayée par de nombreux médias, y compris en France.

La nouvelle génération d’intelligence artificielle dite générative

ChatGPT (pour Chat Generative Pre-trained Transformer, soit transformeur génératif préentraîné) est un outil de communication en ligne qui propose à l’internaute de dialoguer avec un robot. Voici sa réponse à la question « Comment te définis-tu ? » : « En tant qu’intelligence artificielle [IA], je suis un programme informatique développé par la société OpenAI, basé sur l’architecture GPT-4. Je suis conçu pour comprendre et générer du texte en réponse aux requêtes des utilisateurs. »

La génération précédente d’outils d’intelligence artificielle était surtout basée sur l’apprentissage automatique. À partir de la base de données la plus importante possible, on pouvait par exemple entraîner l’outil à repérer des microfractures sur des radiographies. Depuis quelques années, la nouvelle génération est « générative » : si l’outil est formé sur des quantités suffisamment importantes de texte, il est capable de générer du texte inédit. Ainsi, ChatGPT peut répondre aux questions, résumer un CV, créer une newsletter, coder ou déboguer un programme informatique, écrire un poème, traduire un document, rédiger un contrat, écrire un article scientifique2

De son côté, l’outil Dall-e3, aussi créé par la société OpenAI, est capable de générer une image à partir d’un descriptif (voir photo).

ChatGPT s’améliore au fil du temps puisque son apprentissage se fait en continu. Il sollicite également régulièrement l’internaute dans le but de recueillir son appréciation.

Ce système d’IA a la faculté de tenir compte du contexte grâce à la mémorisation de la conversation en cours (jusqu’à un maximum de 25 000 mots environ). Mais au lieu de poser des questions pour clarifier la question de l’utilisateur, la version actuelle va essayer de deviner ce que l’utilisateur demande, d’où des risques d’erreurs. Ainsi, si on demande à ChatGPT pourquoi son chat boit beaucoup, et que dans la question suivante on l’interroge sur la glycémie normale, il fournira, certes en le précisant, les données concernant l’homme. Comme le détaille d’ailleurs OpenAI sur son site, ChatGPT peut parfois « halluciner » les faits, autrement dit produire des réponses qui semblent plausibles mais qui n’ont en fait aucun sens.

ChatGPT a été lancé en novembre 2022. Sa dernière version, basée sur GPT-4, est disponible depuis le 14 mars au prix de 24 dollars par mois. « GPT-4 est moins doué que les humains dans de nombreux scénarios de la vie réelle, mais aussi performant qu’eux dans de nombreux contextes professionnels et académiques », indique OpenAI dans un communiqué.

Des informations puisées dans Internet

Collectant ses informations dans Internet, ChatGPT est dépendant de la qualité des documents qu’on y trouve. L’outil cependant n’est pas capable d’évaluer la qualité des contenus ni le niveau d’incertitude associé. C’est un choix qui permet donc d’obtenir une immense masse de données (plus de 570 gigaoctets de données textuelles dans la version 3), mais sans garantie d’exhaustivité ni de qualité.

ChatGPT n’est pas nécessairement élaboré pour être utilisé à des fins médicales, contrairement à un outil comme MedPaLM4, conçu par Google et DeepMind. Mais Nabla Copilot5, construit sur ChatGPT, permet de générer automatiquement un compte rendu à la suite d’une consultation en médecine humaine.

L’apport de ChatGPT à la profession

Alors quelle utilisation peut-on envisager pour les vétérinaires ? L’une d’entre elles est la collecte et la synthèse d’informations. Axelle Favier a réalisé sa thèse de doctorat vétérinaire (VetAgro Sup, 2023) sur la prévention et la gestion écoresponsable des déchets en pratique vétérinaire. « Dans le cadre de ma thèse, j’ai testé ChatGPT en version 3 pour rechercher des informations. Ce que j’ai observé en général, c’est que la réponse peut être intéressante quand le sujet est bien présent et débattu sur l’Internet. En revanche, plus le sujet est pointu et peu présent dans les moteurs de recherche, moins les réponses sont pertinentes. Ainsi, la réponse formulée à la question “Comment rendre une clinique vétérinaire écoresponsable ?” fournit un commentaire certes général mais assez bien construit. En revanche, celle à la question “Comment trier les déchets d’une clinique vétérinaire ?” est assez décevante, avec une conclusion qui mélange la notion de réduction des déchets et celle de recyclage. » Avec la version 4, la réponse semble cependant plus aboutie et souligne, par exemple, la possibilité de limiter la production de déchets en adoptant des pratiques écoresponsables. Autres utilisations envisageables : l’obtention d’hypothèses diagnostiques supplémentaires, l’aide à la rédaction d’articles pour le site Web de la clinique, voire l’intégration dans un chat de téléconsultation afin d’accélérer les réponses faites aux clients (sous supervision bien sûr).

Et côté clients ?

Qu’en est-il d’une utilisation par le client ? « Ces outils nous aideront à être en meilleure santé, sous forme de conseillers médicaux IA pour les personnes qui n’ont pas les moyens de se faire soigner », soulignait Sam Altman, président d’OpenAI, dans un tweet en février 2023. Et donc un outil d’autodiagnostic pour les possesseurs d’animaux à faibles revenus… L’aplomb avec lequel ChatGPT semble répondre à toute question rassure en effet le demandeur, même si la réponse est systématiquement accompagnée d’un avertissement. « Je ne suis pas vétérinaire, mais… » débutaient ainsi les réponses à Cooper à propos de sa chienne Sassy. L’utilisation d’un outil tel que ChatGPT ne diffère finalement pas fondamentalement des recherches sur le Web ou des échanges sur des forums que pourrait effectuer un propriétaire d’animal. Reste que la qualité de la réponse dépendra non seulement de la précision des questions mais aussi de la faculté du propriétaire à l’analyser, même si elle est vulgarisée. Dans le cas de la chienne Sassy, si Cooper déclare n’avoir aucunement influencé l’IA en n’orientant pas les questions, il a procédé de lui-même à l’élimination de certains diagnostics.

Un appel à une pause

On soulignera deux autres points.

ChatGPT n’est pas conforme en l’état au règlement général sur la protection des données. Pour cette raison, l’autorité italienne de protection des données (l’équivalent de la Commission nationale de l’informatique et des libertés) a bloqué ChatGPT le 31 mars 2023. On évitera donc d’y injecter tout document concernant des informations personnelles.

En outre, sur le plan environnemental, chaque interrogation de ChatGPT représenterait l’équivalent de 300 requêtes sur Google, soit jusqu’à 2,1 kg d’équivalent CO2 selon certaines estimations. Des émissions faibles à l’échelle individuelle, mais à prendre en considération à l’échelle mondiale.

L’intelligence artificielle est la plus importante avancée technologique depuis des décennies, selon Bill Gates. Mais elle fait peur à certains : un millier d’experts du secteur réclament une pause dans l’avancée de l’intelligence artificielle6. Sam Altman a lui-même tweeté : « Je pense que nous ne sommes potentiellement pas si loin des outils potentiellement effrayants. »

Petite précision : cet article a été rédigé par un humain, sans l’aide de ChatGPT !

« C’est l’usage que peut en faire la société qui constitue un risque »

Michel Beaudouin-Lafon est professeur d’informatique à l’université Paris-Saclay, Centre national de la recherche scientifique (CNRS), Institut national de recherche en sciences et technologies du numérique. Directeur adjoint du Laboratoire interdisciplinaire des sciences du numérique. Membre de l’Institut universitaire de France. Médaille d’argent du CNRS. Chercheur sur l’interaction humain-machine.

MichelBeaudouin-Lafon.jpg

ChatGPT constitue-t-il une menace pour les professions de santé ?

ChatGPT n’est pas une menace pour les professions intellectuelles, mais c’est une menace pour la société. Comme tous les services de l’intelligence artificielle (analyse des images médicales…), ChatGPT apporte une réponse d’un système purement statistique alimenté par des ressources très variées. Le processus de génération d’une réponse à partir de ce que l’on a demandé dans ChatGPT est uniquement statistique. Le système enchaîne des mots les uns après les autres selon des règles de probabilité, sans connaître leur sens. En outre, l’entreprise OpenAI ne publie pas les sources qu’elle utilise, donc cela peut soulever la question de la pertinence des sources dans un domaine donné.

C’est l’usage que peut en faire la société qui constitue un risque. En effet, ce qui est surtout dangereux, c’est de dire que l’intelligence artificielle (IA) pourrait être « meilleure » qu’un être humain. ChatGPT donne l’impression que le texte est produit par un humain, mais il n’y a pas d’humain dedans, seulement des statistiques, donc on ne peut pas prêter à ce système une confiance aveugle.

En revanche, utiliser l’IA pour assister et enrichir une compétence humaine dans son domaine d’expertise est intéressant.

ChatGPT ne signe donc pas la fin des professions « intellectuelles » ?

Un monde géré uniquement par l’IA deviendrait bien triste, car l’IA se nourrit de productions humaines ! Mais il deviendrait aussi dangereux, car ces systèmes pourraient potentiellement être manipulés par des personnes mal intentionnées.

Il existe un vrai enjeu de politique publique. Les systèmes d’IA font déjà l’objet de réflexions et de propositions d’encadrement dans le cadre de la réglementation européenne. Il devient urgent de les mettre en œuvre. L’Italie vient par exemple d’annoncer le blocage de ChatGPT. Il y a également la lettre ouverte récente (signée notamment par Elon Musk) d’un moratoire sur les recherches dans ces domaines. Cela n’est pas une bonne solution à terme selon moi, mais une pause pourrait être utile pour décider du mode de régulation.

La responsabilité finale du diagnostic ou de toute action s’appuyant sur l’IA resterait-elle du ressort de celui qui l’utilise ?

Il faut qu’il y ait une responsabilité humaine dans chaque système. Cette notion revient dans tous les comités d’éthique et de réflexion sur l’IA.

Ce sont les mêmes questions qui se posent pour les voitures autonomes : au final, un humain doit voir sa responsabilité engagée en cas de mauvais fonctionnement. C’est déjà le cas au niveau des banques lors de transferts d’argent. Même si les banques utilisent de plus en plus les systèmes d’IA, ce sont des humains qui sont chargés de valider les décisions (virement d’argent vers un groupe terroriste par exemple) pour éviter toute dérive et ne pas exposer la banque à des amendes importantes.

Au final, ChatGPT dépendra plus de l’usage qui en sera fait ?

Comme toute technologie, elle n’est ni neutre, ni positive, ni négative, c’est l’usage qui en est fait qui détermine si elle représente un bénéfice ou une menace. Un cadre réglementaire est nécessaire, il faudra des garde-fous.

  • 1. Cooper sur Twitter : bit.ly/3GbSxJe.
  • 2. Blanco-González A., Cabezón A., Seco-González A., et al. The role of AI in drug discovery: Challenges, opportunities, and strategies. bit.ly/3m9QRsG.
  • 3. Dall-e d’Open AI : bit.ly/3KtGFom.
  • 4. Singhal K., Azizi S., Tu T., et al. Large language models encode clinical knowledge. ArXiv. 2022. bit.ly/3KsCRnl.
  • 6. Pause giant aI experiments: An open letter : bit.ly/3U3WhC6.