21.05.26 de 13h à 14h
Dans le domaine des études comportementales, le suivi précis et automatisé du comportement animal constitue aujourd’hui un enjeu majeur. Plusieurs systèmes clé en main sont largement déployés et permettent un suivi vidéo fin des rongeurs ou d’autres espèces au cours de leurs activités expérimentales, y compris en conditions de stabulation. Ces dispositifs peuvent être couplés à des systèmes d’électrophysiologie, d’imagerie ou d’optogénétique, offrant ainsi une approche intégrative des phénotypes comportementaux.
Leurs outils d’analyse permettent de quantifier avec précision et de manière homogène de nombreux paramètres comportementaux et physiologique. Cette standardisation contribue à renforcer la fiabilité des résultats, à améliorer la reproductibilité des études et à réduire significativement le temps de traitement des données. Nous proposons un retour d’usage mettant en évidence leur robustesse, leur polyvalence et leur capacité à s’intégrer dans des protocoles expérimentaux complexes. Dans une logique de mutualisation, ces systèmes constituent une solution rentable et évolutive pour les plateformes technologiques et les équipes de recherche, permettant d’allier performance scientifique, reproductibilité et optimisation des ressources.
Parallèlement, l’émergence de solutions open source et d’outils basés sur l’intelligence artificielle suscite un intérêt croissant. Ces approches offrent une grande flexibilité, un fort potentiel d’innovation et, dans certains cas, une réduction des coûts. Elles permettent notamment de développer des analyses plus fines et personnalisées.
Cependant, leur utilisation soulève plusieurs points de vigilance. La variabilité des implémentations, le manque de standardisation des pipelines d’analyse et la dépendance aux compétences en programmation peuvent impacter la robustesse et la reproductibilité des résultats. De plus, les modèles d’intelligence artificielle, sensibles aux conditions d’entraînement (qualité des annotations, biais expérimentaux, conditions d’acquisition), peuvent générer des biais difficiles à détecter sans validation rigoureuse.
Ces limites posent une question centrale : celle de la reproductibilité scientifique et les 3R. Une analyse non reproductible fragilise l’interprétation des résultats et peut conduire à répéter des expériences, augmentant ainsi le nombre d’animaux utilisés. Cet enjeu est directement lié aux principes des 3R. Une faible reproductibilité va à l’encontre du principe de Réduction en nécessitant davantage d’animaux pour obtenir des résultats robustes. Elle peut également compromettre le Raffinement en exposant inutilement les animaux à des procédures répétées ou mal optimisées.
À l’inverse, des outils validés, standardisés et maîtrisés permettent de produire des données fiables dès les premières expérimentations, limitant ainsi le recours à des cohortes supplémentaires et améliorant la qualité globale des études.
Dans un contexte réglementaire exigeant, ces outils nécessitent une attention particulière en termes de traçabilité, de validation, de présence forte de support structuré ou de maintenance pérenne.
Ainsi, plutôt qu’une opposition entre systèmes clé en main et solutions open source, une approche complémentaire apparaît la plus pertinente. L’objectif est de combiner la robustesse et la standardisation des systèmes classique avec la flexibilité et l’innovation des approches open source et de l’intelligence artificielle, tout en garantissant un haut niveau d’exigence scientifique et éthique.

Hajer El Oussini, PhD
Ingénieure de Recherche CNRS
Université de Bordeaux
Retour