Facebook muscle la mémoire de son chatbot BlenderBot 2.0

Le réseau social Facebook dit au revoir à la mémoire de poisson rouge de son chatbot. Son équipe de recherche en intelligence artificielle met à jour BlenderBot pour générer des réponses basées sur une mémoire longue et alimentée par des recherches web continues.

Moins d’un an après sa création, Facebook annonce une mise à niveau majeure pour son chatbot BlenderBot, avec une capacité de mémoire à long terme accessible en permanence. Il possède également la capacité de rechercher des informations sur Internet en temps réel, afin d’avoir des conversations plus sophistiquées et sur une multitude de sujets. La première version, lancée en 2020, prenait d’ores et déjà un certain nombre de paramètres en compte, tels que la personnalité, l’empathie ou la culture. Facebook AI Research (FAIR), le laboratoire de recherche sur l’intelligence artificielle de Facebook, annonce que cet outil a été publié en open source, sur la plateforme de recherche ParlAI, afin de rester à jour face aux changements constants que l’on observe. « Pendant la conversation, le modèle peut générer des requêtes de recherche contextuelles sur Internet, lire les résultats et incorporer ces informations lorsqu’il répond aux questions et aux commentaires de ses interlocuteurs » précise la firme dans un communiqué.

Sur son blog consacré à l’IA, le réseau social indique par ailleurs que « lorsqu’il s’adresse à des personnes, BlenderBot 2.0 a démontré qu’il était plus à même de mener des conversations plus longues, mieux informées et plus cohérentes sur le plan factuel au cours de plusieurs sessions que son prédécesseur, le chatbot actuel à la pointe de la technologie ». Le modèle prend les informations pertinentes glanées au cours de la conversation et les stocke dans une mémoire à long terme afin de pouvoir les exploiter dans des conversations continues qui peuvent durer des jours, des semaines, voire des mois. Les connaissances sont stockées séparément pour chaque personne avec laquelle il parle, ce qui garantit qu’aucune nouvelle information apprise au cours d’une conversation n’est utilisée dans une autre.

Une IA conversationnelle

Le modèle complet, le code et la configuration d’évaluation, ainsi que deux ensembles de données conversationnelles sont disponibles sur le blog du laboratoire FAIR. Des conversations humaines renforcées par des recherches sur Internet et des conversations multisessions avec des personnes qui font référence à des sessions précédentes ont été utilisées pour « entraîner le modèle, afin que d’autres chercheurs puissent reproduire ce travail et faire progresser la recherche sur l’IA conversationnelle ».

BlenderBot 2.0 utilise un modèle basé sur celui de Facebook – génération de récupération augmentée – « une approche qui permet de générer des réponses de dialogue qui incorporent des connaissances au-delà de celles contenues dans la conversation elle-même ». Le laboratoire précise que « le modèle combine un composant de recherche d’informations avec un générateur seq2seq. L’architecture traditionnelle de l’encodeur-décodeur se voit augmentée avec un module supplémentaire de réseau neuronal qui génère des requêtes de recherche pertinentes en fonction du contexte de la conversation. BlenderBot 2.0 ajoute ensuite les connaissances résultantes à l’historique de la conversation, qui est encodé à l’aide de l’architecture traditionnelle d’encodage-décodage afin de générer une réponse.

Le modèle d’apprentissage du chatbot repose sur architecture traditionnelle d’encodage-décodage afin de donner une réponse à l’utilisateur. (Crédit : FAIR)

Sécurité et chatbot, méfiance

Avec l’évolution de BlenderBot, le réseau social est une nouvelle fois confronté à la question de la confidentialité des données utilisateurs. Afin de prendre toutes les précautions nécessaires, une étude a été menée pour pallier les sollicitations violentes et empêcher toute réponse similaire de la part du bot. « Deux méthodes ont ainsi été développées : la sécurité intégrée et la robustesse aux sollicitations violentes [les insultes et autres agressions textuelles]». Les recherches montrent que « la mise en œuvre de notre approche de la sécurité a réduit de 90 % les réponses offensives, mesurées par un classificateur automatique, tout en augmentant de 74,5 % le nombre de réponses sûres dans les conversations avec des personnes réelles ».

Leave a Reply

Your email address will not be published. Required fields are marked *