Suivez-nous

iPhon.fr

Apple veut développer une IA “morale” et c’est un casse-tête

Apple veut renforcer son IA mais pas au prix de nos données.

iPhon.fr

Publié le

 

Par

© Unsplash / appshunter.io

Ce n’est plus un secret pour personne, Apple essaye de développer une intelligence artificielle capable de rattraper la concurrence sur ce marché. Mais l’arrivée d’une IA générative au sein de notre iPhone (chose promise depuis iOS 18 et l’arrivée d’Apple Intelligence) ne se fera pas sans condition.

Une récente étude menée par des chercheurs d’Apple et de l’Université de Washington met en lumière les limites de l’IA, notamment en ce qui concerne le consentement des utilisateurs. Les scientifiques qui ont travaillé sur ce projet ont tenté de « mettre des limites » à l’IA en fonction des choix des consommateurs.

Aujourd’hui les IA embarquées dans des smartphones sont capables de naviguer entre les applications, remplir des formulaires, effectuer des achats ou modifier les paramètres. Le plus souvent, elles peuvent effectuer toutes ces actions sans ne jamais demander la moindre permission à l’utilisateur.

C’est très pratique certes, mais cela pose de nombreuses questions sur le respect de la vie privée et la sécurité de nos données. Qu’elles soient vues et utilisées par une IA est déjà une chose, mais ces informations sont ensuite stockées dans des data centers, dont nous n’avons aucun contrôle.

Apple veut donner le contrôle à Siri

Pour contourner ce problème, Apple a trouvé un début de solution. La marque à la pomme assure que son système d’IA ne fonctionne qu’en local. Les informations ne transitent pas vers l’extérieur. Néanmoins, cela ne règle pas toutes les questions de confidentialité des données.

En agissant ainsi, Apple veut que Siri (qui sera l’interface de sa future IA) prenne des dizaines de décisions à votre place, mais que faire pour les utilisateurs qui ne le souhaitent pas ? C’est dans ce but que des chercheurs ont tenté de développer des « limites » à l’IA. Concrètement ils ont appris à cette dernière la liste des actions « inoffensives » qu’elle pouvait réaliser sans le consentement éclairé et spécifique d’un utilisateur.

Par définition, toutes les actions qui ne se trouvent pas dans cette liste sont jugées « dangereuses » et l’IA ne peut pas les effectuer à votre place. Du moins, pas sans vous le demander.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *