25 mars 2022

Grégory LAFON – Soutenance de thèse

"Apprentissage visuel en réalité virtuelle chez Apis mellifera"

Soutenance en anglais

Zoom Link: https://univ-tlse3-fr.zoom.us/j/93805472327?pwd=ZXFwaFVISENObXRlV0JXMFlReXM3UT09

  • ID : 938 0547 2327
  • Code secret : 073857

Encadrement : Martin Giurfa et Aurore Avarguès-Weber

Jury :

  • Ludovic Dickel
  • Elisa Frasnelli
  • Stéphane Viollet
  • Aurore Avarguès-Weber
  • Martin Giurfa

Résumé :

Dotées d’un cerveau de moins d’un millimètre cube et contenant environ 950 000 neurones, les abeilles présentent un riche répertoire comportemental, parmi lesquels l’apprentissage appétitif et la mémoire jouent un rôle fondamental dans le contexte des activités de recherche de nourriture. Outre les formes élémentaires d’apprentissage, où les abeilles apprennent une association spécifique entre des événements de leur environnement, les abeilles maîtrisent également différentes formes d’apprentissage non-élémentaire, à la fois dans le domaine visuel et olfactif, y compris la catégorisation, l’apprentissage contextuel et l’abstraction de règles. Ces caractéristiques en font un modèle idéal pour l’étude de l’apprentissage visuel et pour explorer les mécanismes neuronaux qui sous-tendent leurs capacités d’apprentissage. Afin d’accéder au cerveau d’une abeille lors d’une tâche d’apprentissage visuel, l’insecte doit être immobilisé. Par conséquent, des systèmes de réalité virtuelle (VR) ont été développés pour permettre aux abeilles d’agir dans un monde virtuel, tout en restant stationnaires dans le monde réel. Au cours de mon doctorat, j’ai développé un logiciel de réalité virtuelle 3D flexible et open source pour étudier l’apprentissage visuel, et je l’ai utilisé pour améliorer les protocoles de conditionnement existants en VR et pour étudier le mécanisme neuronal de l’apprentissage visuel.

En étudiant l’influence du flux optique sur l’apprentissage associatif des couleurs, j’ai découvert que l’augmentation des signaux de mouvement de l’arrière-plan nuisait aux performances des abeilles. Ce qui m’a amené à identifier des problèmes pouvant affecter la prise de décision dans les paysages virtuels, qui nécessitent un contrôle spécifique par les expérimentateurs.

Au moyen de la VR, j’ai induit l’apprentissage visuel chez des abeilles et quantifié l’expression immédiate des gènes précoces (IEG) dans des zones spécifiques de leur cerveau pour détecter les régions impliquées dans l’apprentissage visuel. En particulier, je me suis concentré sur kakusei, Hr38 et Egr1, trois IEG liés à la recherche de nourriture et à l’orientation des abeilles et qui peuvent donc également être pertinents pour la formation d’association visuelle appétitive. Cette analyse suggère que les corps pédonculés sont impliqués dans l’apprentissage associatif des couleurs.

Enfin, j’ai exploré la possibilité d’utiliser la VR sur d’autres modèles d’insectes et effectué un conditionnement différentiel sur des bourdons. Cette étude a montré que non seulement les bourdons sont capables de résoudre cette tâche cognitive aussi bien que les abeilles, mais aussi qu’ils interagissent davantage avec la réalité virtuelle, ce qui entraîne un ratio plus faible d’individus rejetés de l’expérience par manque de mouvement. Ces résultats indiquent que les protocoles VR que j’ai établis au cours de cette thèse peuvent être appliqués à d’autres insectes, et que le bourdon est un bon candidat pour l’étude de l’apprentissage visuel en VR.

25 mars 2022, 13h3017h00
Salle de conférence du CBI (4R4)