Suivez-nous

iOS

Siri basculerait à une architecture réseau de neurones

Arnaud

Publié le

 

Par

siri-2.jpg

Wired s’intéresse à la face cachée des assistants personnels qui équipent désormais tous les systèmes d’exploitations mobiles majeurs, iOS, bien sûr, mais aussi Android et Windows Phone. Et plus précisément à leur faculté à comprendre, plus ou moins bien, notre phrasé d’humain.

Apple travaille, pour l’heure, avec Nuance, le leader des logiciels de reconnaissance vocale mais ça pourrait prochainement changer : la Pomme a constitué une équipe performante et multi-niveaux pour s’occuper de cet aspect si important de Siri. Une équipe large, embrassant le champ opérationnel mais aussi la recherche plus fondamentale. L’an passé, elle débauchait Alex Acero, un scientifique ayant travaillé 20 ans dans l’équipe de recherche voix de Microsoft. Il dirige, chez Apple, deux autres transfuges de Redmond, Li Deng and Dong Yu. Plus récemment, Apple a embauché Gunnar Evermann, chercheur pour Nuance, et Arnab Ghoshal, de l’Université d’Edimbourg.

La mission de cette équipe de fines lames ? Sans doute faire basculer l’architecture de reconnaissance vocale de Siri au réseau de neurones, déjà utilisé chez Google et Microsoft. Un concept remontant aux “systèmes experts” des années 1980, et qui permet de traiter les mots sous forme de briques élémentaires triées et assemblées par un réseau capable d’apprendre plus il ingurgite de données. C’est un système de ce type qui permet à Microsoft de montrer un système de traduction vocale instantané avec Skype. Un gros défi, qui permettrait de booster considérablement les performances de reconnaissance de Siri.