Microsoft va retirer son outil controversé de reconnaissance faciale qui prétend identifier les émotions

Microsoft va retirer son outil controversé de reconnaissance faciale qui prétend identifier les émotions

Microsoft supprime progressivement l’accès public à un certain nombre d’outils d’analyse faciale basés sur l’IA, dont un qui prétend identifier l’émotion d’un sujet à partir de vidéos et d’images.

De tels outils de « reconnaissance des émotions » ont été critiqués par les experts. Ils disent que non seulement les expressions faciales que l’on pense universelles diffèrent d’une population à l’autre, mais qu’il n’est pas scientifique d’assimiler les manifestations externes d’émotions aux sentiments internes.

“Les entreprises peuvent dire ce qu’elles veulent, mais les données sont claires”, a déclaré Lisa Feldman Barrett, professeur de psychologie à la Northeastern University qui a mené une étude sur le sujet de la reconnaissance des émotions alimentée par l’IA. Le bord en 2019. “Ils peuvent détecter un air renfrogné, mais ce n’est pas la même chose que détecter la colère.”

La décision fait partie d’une refonte plus large des politiques d’éthique de Microsoft en matière d’IA. Les normes d’IA responsables mises à jour de l’entreprise (décrite pour la première fois en 2019) mettent l’accent sur la responsabilité de savoir qui utilise ses services et sur une plus grande surveillance humaine de l’endroit où ces outils sont appliqués.

Concrètement, cela signifie que Microsoft limitera l’accès à certaines fonctionnalités de ses services de reconnaissance faciale (appelés Azure Face) et en supprimera entièrement d’autres. Les utilisateurs devront demander à utiliser Azure Face pour l’identification faciale, par exemple, en indiquant à Microsoft exactement comment et où ils déploieront ses systèmes. Certains cas d’utilisation avec un potentiel moins nocif (comme le floutage automatique des visages dans les images et les vidéos) resteront en libre accès.

En plus de supprimer l’accès public à son outil de reconnaissance des émotions, Microsoft supprime également la capacité d’Azure Face à identifier “des attributs tels que le sexe, l’âge, le sourire, les poils du visage, les cheveux et le maquillage”.

“Les experts à l’intérieur et à l’extérieur de l’entreprise ont souligné l’absence de consensus scientifique sur la définition des” émotions “, les défis dans la façon dont les inférences se généralisent à travers les cas d’utilisation, les régions et les données démographiques, et les préoccupations accrues en matière de confidentialité autour de ce type de capacité “, a écrit Natasha Crampton, responsable de l’IA chez Microsoft, dans un article de blog annonçant la nouvelle.

Microsoft indique qu’il cessera d’offrir ces fonctionnalités aux nouveaux clients à partir d’aujourd’hui, le 21 juin, tandis que les clients existants verront leur accès révoqué le 30 juin 2023.

Cependant, alors que Microsoft prend sa retraite Publique accès à ces fonctionnalités, il continuera à les utiliser dans au moins un de ses propres produits : une application nommée Seeing AI qui utilise la vision artificielle pour décrire le monde aux personnes ayant une déficience visuelle.

Dans un article de blog, Sarah Bird, chef de produit principal du groupe Microsoft pour Azure AI, a déclaré que des outils tels que la reconnaissance des émotions “peuvent être utiles lorsqu’ils sont utilisés pour un ensemble de scénarios d’accessibilité contrôlée”. Il n’est pas clair si ces outils seront utilisés dans d’autres produits Microsoft.

Microsoft introduit également des restrictions similaires à sa fonction Custom Neural Voice, qui permet aux clients de créer des voix IA basées sur des enregistrements de personnes réelles (parfois appelées deepfake audio).

L’outil “a un potentiel passionnant dans l’éducation, l’accessibilité et le divertissement”, écrit Bird, mais elle note qu’il “est également facile d’imaginer comment il pourrait être utilisé pour se faire passer pour des locuteurs de manière inappropriée et tromper les auditeurs”. Microsoft indique qu’à l’avenir, il limitera l’accès à la fonctionnalité aux “clients et partenaires gérés” et “assurera la participation active de l’orateur lors de la création d’une voix synthétique”.

Leave a Comment

Your email address will not be published.