E-SANTÉ ANIMALE
ACTU
Auteur(s) : TANIT HALFON
La journée dédiée à la e-santé animale du congrès de Castres a mis en lumière un certain nombre de préoccupations relatives à l’essor du numérique .
En 2014, Stephen Hawking a dit qu’il fallait cesser les développements en intelligence artificielle (IA), car ils conduiront à la disparition de l’humanité. En 2018, il nuance ces propos en affirmant qu’il faut davantage se méfier du capitalisme exacerbé qui conduit aux chaos politique, social et environnemental plutôt que des robots », avertit François Bagaïni (L 92), vétérinaire et data scientist, lors de la 13e édition de l’université d’été de la e-santé à Castres (Tarn). Ce rendez-vous se déroulait sur trois jours, du 2 au 4 juillet. Dans la continuité de la pensée du physicien britannique, la journée du 4 juillet consacrée à la e-santé animale a suscité de nombreuses questions. « Si on écoute Geoffrey Hinton [chercheur canadien spécialiste de l’IA, NDLR ], qui a contribué très largement au développement du deep learning, il est assez catégorique, on devra tout simplement arrêter de former des radiologues, car dans 7 à 10 ans, ils n’auront plus de boulot », poursuit François Bagaïni. Qui enchaîne sur des exemples qui vont dans le même sens. Outre-Atlantique, le dépistage des cancers du sein en mammographie est effectué à 70 % par des IA dans les hôpitaux et à 85 % dans les cliniques privées. En parallèle, des validations cliniques pour la détection précoce des disques intervertébraux endommagés en imagerie par résonnance magnétique (IRM), mais aussi le dépistage précoce de la rétinopathie diabétique et la détection précoce des mélanomes cutanés ont été obtenus. En Chine, une confrontation entre une IA et deux imageurs, pour le diagnostic (lecture d’images d’IRM) du gliome et de l’hémangiome, s’est terminée par… 87 % d’efficacité pour l’IA versus 66 % pour l’humain. Enfin, deux IA ont obtenu leur diplôme de médecine1. Un bémol tout de même : l’IA peut se tromper. « Des travaux de chercheurs hollandais ont pu synthétiser des images capables de flouer l’un des réseaux de neurones de reconnaissance d’images le plus performant de la planète (…). Ce qui manque à l’IA, c’est le bon sens pour dire que c’est aberrant. Donc l’humain est indispensable. »
Les questions éthiques ne sont pas en reste, comme le souligne Raphaël Guatteo (N 01), enseignant-chercheur en médecine bovine à Oniris (Loire-Atlantique). La première est simple : pourquoi équiper les animaux d’outils connectés (Internet of things ou IoT) ? «
Certains outils n’ont pas toujours une indication ou une vocation à améliorer leur bien-être ou leur santé. C’est un questionnement éthique qu’il faut déjà se poser.
» En outre, les grands principes relatifs aux données personnelles humaines2 sont-ils transposables en e-santé animale ? À commencer par le principe de loyauté qui dit que l’intérêt qui doit primer est celui de l’utilisateur. Qui est-ce ? L’éleveur ? Le propriétaire ? Le soignant ? Le citoyen ? Celui qui achète l’IoT ? Celui qui le vend ? Celui qui achète le produit final ? Pas si simple. D’autant plus que «
parfois celui qui achète l’IoT signe des conditions générales d’utilisation et les données partent à celui qui le fabrique
», qui pourra les utiliser pour un intérêt d’entreprise, par exemple. Autre principe : celui de la vigilance. En clair, qui serait légitime et compétent pour évaluer les IoT en e-santé animale ? Dans un contexte où «
la réglementation est quasi absente à quelques exceptions près
», faudra-t-il créer un comité ad hoc pour éviter tout conflit d’intérêts ? Perte de compétences du fait d’une délégation totale à l’outil, perte d’autonomie dans la décision, distance dans la relation affective ou, au contraire, risque d’anthropomorphisme, impact de l’outil sur la santé et le bien-être animal… Si la liste des considérations éthiques à prendre en compte est longue, un début de réponse passerait par la responsabilisation des utilisateurs des IoT, qu’ils soient propriétaires, éleveurs ou vétérinaires, via l’accompagnement et la formation. À commencer par celle des praticiens.
•
1 En pratique, cela veut dire que dans un contexte clinique donné, elles peuvent indiquer le diagnostic le plus probable et le traitement le plus adapté.
2 Les principes cités par le conférencier sont ceux de la Commission nationale de l’informatique et des libertés (Cnil) et de la Commission européenne.
LE PARTENAIRE DU FUTUR