Les humains ont toujours été fascinés par le potentiel de communication avec les animaux avec lesquels ils partagent le monde. Grâce à l’apprentissage automatique et ses capacités toujours plus avancées d’analyse de la parole humaine, la traduction de langages animaliers semble désormais à portée de main. L’IA pour décoder le langage animal, une réalité à […]
Les humains ont toujours été fascinés par le potentiel de communication avec les animaux avec lesquels ils partagent le monde. Grâce à l’apprentissage automatique et ses capacités toujours plus avancées d’analyse de la parole humaine, la traduction de langages animaliers semble désormais à portée de main.
L’IA pour décoder le langage animal, une réalité à portée de main
Un article du New York Times paru cette semaine documente les efforts majeurs de cinq groupes de chercheurs qui ont examiné l’utilisation d’algorithmes d’apprentissage automatique pour analyser les gémissements de rongeurs, de lémuriens, de baleines, de poulets, de cochons, de chauves-souris, de chats, etc.
Analyser le langage animal est en revanche bien plus complexe que l’analyse du langage humain. Les informaticiens doivent indiquer aux programmes ce qu’il faut rechercher et comment organiser les données. Ce processus complexe dépend non seulement de l’accumulation d’un bon nombre d’enregistrements vocaux, mais aussi de la correspondance de ces enregistrements vocaux avec les comportements sociaux visuels des animaux.
Concevoir un Google Traduction pour les animaux est un projet ambitieux, en plein développement depuis la moitié de la dernière décennie. Bien qu’encore loin de comprendre toutes les nuances complexes du langage animal, certaines avancées, comme l’app Merlin de Cornell, sont incroyables : cette app offrait auparavant aux utilisateurs des moyens d’identifier un oiseau près d’eux grâce à des descriptions ou une photo.
Une autre étude récente publiée par le Wall Street Journal démontre que les algorithmes d’apprentissage automatique tels que DeepSqueak peuvent repérer des modèles subtils qui pourraient échapper aux auditeurs humains. Par exemple, les scientifiques ont montré que ces programmes peuvent différencier les sons individuels d’animaux, distinguer les sons que les animaux émettent dans différentes circonstances et décomposer leurs vocalisations en parties plus petites, une étape cruciale pour déchiffrer leur sens. DeepSqueak peut aussi faire la distinction entre les cris complexes et chantants que les animaux émettent lorsqu’ils se sentent bien et les longs et plats qu’ils émettent lorsqu’ils ne le sont pas, par exemple.
D’autres grands chantiers sont en cours, comme le projet CETI (abréviation de Cetacean Translation Initiative), qui rassemble des experts en apprentissage automatique, des biologistes marins, des roboticiens, des linguistes et des cryptographes, entre autres, dans plus d’une douzaine d’institutions pour décoder la communication des cachalots.