Microsoft va retirer l’outil controversé de reconnaissance faciale qui prétend identifier les émotions

  • par
Microsoft va retirer l'outil controversé de reconnaissance faciale qui prétend identifier les émotions
Spread the love

Microsoft supprime progressivement l’accès public à un certain nombre d’outils d’analyse faciale basés sur l’IA, dont un qui prétend identifier l’émotion d’un sujet à partir de vidéos et d’images.

De tels outils de « reconnaissance des émotions » ont été critiqués par les experts. Ils disent que non seulement les expressions faciales considérées comme universelles diffèrent entre les différentes populations, mais qu’il n’est pas scientifique d’assimiler les manifestations externes des émotions aux sentiments internes.

« Les entreprises peuvent dire ce qu’elles veulent, mais les données sont claires », a déclaré Lisa Feldman Barrett, professeur de psychologie à la Northeastern University, qui a dirigé une étude sur le thème de la reconnaissance des émotions basée sur l’IA. La frontière en 2019. « Ils peuvent détecter un froncement de sourcils, mais ce n’est pas la même chose que détecter la colère. »

La décision fait partie d’un examen plus large des politiques d’éthique de Microsoft en matière d’IA. Les normes mises à jour pour l’IA responsable de l’entreprise (décrites pour la première fois en 2019) mettent l’accent sur la responsabilité de découvrir qui utilise ses services et sur une plus grande surveillance humaine de l’endroit où ces outils sont appliqués.

Concrètement, cela signifie que Microsoft restreindra l’accès à certaines fonctionnalités de ses services de reconnaissance faciale (connus sous le nom d’Azure Face) et en supprimera entièrement d’autres. Les utilisateurs devront demander à utiliser Azure Face pour l’identification faciale, par exemple, en indiquant à Microsoft exactement comment et où ils déploieront ses systèmes. Certains cas d’utilisation avec un potentiel moins dommageable (comme le floutage automatique des visages dans les images et les vidéos) resteront en libre accès.

En plus de supprimer l’accès public à son outil de reconnaissance des émotions, Microsoft supprime également la capacité d’Azure Face à identifier « des attributs tels que le sexe, l’âge, le sourire, la pilosité faciale, les cheveux et le maquillage ».

« Les experts à l’intérieur et à l’extérieur de l’entreprise ont souligné l’absence de consensus scientifique sur la définition des » émotions « , les défis dans la façon dont les inférences se généralisent entre les cas d’utilisation, les régions et la démographie, et les préoccupations accrues. politique de confidentialité liée à ce type de capacité », a écrit Natasha Crampton, directrice de l’IA chez Microsoft, dans un article de blog annonçant la nouvelle.

Microsoft indique qu’il cessera d’offrir ces fonctionnalités aux nouveaux clients à partir d’aujourd’hui, le 21 juin, tandis que les clients existants seront révoqués le 30 juin 2023.

Cependant, alors que Microsoft prend sa retraite Publique en accédant à ces fonctionnalités, il continuera à les utiliser dans au moins un de ses produits : une application appelée Seeing AI qui utilise la vision par ordinateur pour décrire le monde aux personnes ayant une déficience visuelle.

Dans un article de blog, Sarah Bird, chef de produit du groupe principal de Microsoft pour Azure AI, a déclaré que des outils tels que la reconnaissance des émotions « peuvent être inestimables lorsqu’ils sont utilisés pour une variété de scénarios d’accessibilité contrôlée ». Il n’est pas clair si ces outils seront utilisés dans d’autres produits Microsoft.

Microsoft introduit également des restrictions similaires à sa fonction Custom Neural Voice, qui permet aux clients de créer des voix IA basées sur des enregistrements de personnes réelles (parfois appelées deepfakes audio).

L’outil « a un potentiel passionnant dans l’éducation, l’accessibilité et le divertissement », écrit Bird, mais note qu' »il est également facile d’imaginer comment il pourrait être utilisé pour se faire passer pour des orateurs de manière inappropriée et tromper les auditeurs ». Microsoft indique qu’à l’avenir, il limitera l’accès à la fonctionnalité aux « clients et partenaires gérés » et « assurera la participation active de l’orateur lors de la création d’une voix synthétique ».

#Microsoft #retirer #loutil #controversé #reconnaissance #faciale #qui #prétend #identifier #les #émotions

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *