Microsoft dejará de vender tecnología de lectura de emociones y restringirá el acceso a herramientas de reconocimiento facial
Microsoft ha confirmado que retirará el software que evalúa el estado emocional de una persona procesando su imagen. Además, la empresa también restringirá el acceso a su tecnología de reconocimiento facial.
Siguiendo el ejemplo de Google, Microsoft está poniendo fin a la venta de la tecnología de lectura de emociones. La compañía también restringirá el acceso «sin restricciones» a la tecnología de reconocimiento facial. Los clientes existentes solo tendrán un año antes de perder el acceso a Azure Face, un conjunto de herramientas de inteligencia artificial (IA) que intentan determinar las emociones, el género, la edad, la sonrisa, el vello facial, el cabello y el maquillaje. Hablando sobre el desarrollo , Sarah Bird, Gerente Principal de Producto, Microsoft Azure AI Group, dijo:
Estos esfuerzos han planteado preguntas importantes sobre la privacidad, la falta de consenso sobre la definición de «emoción» y la incapacidad de generalizar la relación entre la expresión facial y el estado emocional en casos de uso, regiones y datos demográficos.
Según los informes, Microsoft está investigando si los sistemas de reconocimiento de emociones se basan en la ciencia. No está claro de inmediato qué quiso decir Microsoft. Sin embargo, es posible que la empresa no haya perfeccionado los algoritmos que adivinan el estado emocional de una persona a partir de la imagen. Además, la empresa puede reforzar su caso contra las nuevas normas y reglamentos sobre el uso de dichas herramientas.
Además de finalizar la venta de la tecnología de lectura de emociones, Microsoft también finalizará el acceso sin restricciones a su tecnología de reconocimiento facial. La compañía ha indicado que los clientes que utilicen sus tecnologías de reconocimiento facial deben obtener una autorización previa. Claramente, los clientes de Microsoft deben tener obligaciones contractuales. Sin embargo, no está claro si Microsoft está imponiendo restricciones adicionales o simplemente pidiendo a las empresas que firmen un descargo de responsabilidad eximiendo a Microsoft de cualquier sanción legal asociada con cualquier uso indebido.
Por ahora, Microsoft simplemente ha pedido a sus clientes que «eviten situaciones que violen la privacidad o donde la tecnología pueda fallar». Un objetivo evidentemente dudoso desde el punto de vista jurídico es la identificación de menores. Por cierto, Microsoft no prohíbe específicamente dicho uso.
Microsoft también impone algunas restricciones a su función Custom Neural Voice, que permite a los clientes crear voces de IA basadas en grabaciones de personas reales .
Deja una respuesta