Microsoft cancela la IA de reconocimiento emocional: «Podría ser mal utilizada»

Microsoft cancela la IA de reconocimiento emocional: «Podría ser mal utilizada»

Microsoft anunció esta semana que suspendería el uso de su tecnología de reconocimiento de emociones. El controvertido sistema funcionó a través del software Azure Face, que utiliza inteligencia artificial (IA) para analizar rostros en imágenes.

La cancelación se produjo después de una revisión de las políticas de la empresa, que generó señales de alerta en el sistema. La conclusión es que inferir emociones y atributos de identidad estructurados de esta manera puede dejar espacio para el error y el «mal uso».

El ajuste realizado por Microsoft se alinea con el nuevo documento, «Responsible AI Standard», que publica la empresa cada año. El informe estipula y actualiza las reglas para el uso consciente de la tecnología de inteligencia artificial por parte de los productos de la empresa. La medición busca constantemente “evaluar el impacto del sistema en las personas, las organizaciones y la sociedad”.

En este caso, el programa Azure Face permite añadir un sistema avanzado de reconocimiento facial a aplicaciones de terceros. A pesar de su apariencia prometedora, la herramienta biométrica dejaba mucho que desear en la base científica de la herramienta para el reconocimiento de emociones en las personas.

«El acceso a los API a características que predicen atributos confidenciales también abre una amplia gama de formas en las que se puede usar indebidamente, incluido someter a las personas a estereotipos, discriminación o denegación injusta de servicio», dijo Sarah pájarogerente de producto para AI Core Group en Azuren un informe

La asignación de identificación de identidad por tecnología de inteligencia artificial, como el género y la edad, también está fuera de discusión por ahora.

Con la nueva medida, la herramienta quedará limitada por Microsoft, ya que hasta ahora podía ser utilizada libremente por los suscriptores. Los nuevos clientes ya no tendrán acceso a este sistema de detección a partir del próximo martes (23). Los clientes actuales tienen hasta 2023 para dejar de usarlo.

La búsqueda no terminará

Sin embargo, Microsoft no completará la investigación internamente. Bird dijo que la compañía aún podría expandir los estudios a casos específicos. Mencionó, por ejemplo, el uso de la herramienta para ayudar a las personas con discapacidades, pero no entró en detalles sobre cómo se haría.

La polémica no es reciente. Durante años, activistas y académicos han expresado los posibles peligros del uso gratuito de la IA para cualquiera que quiera acceder a ella. De hecho, la estandarización de las emociones o la definición de la identidad es un punto complejo y podría afectar a cuestiones de privacidad y ética.

Kate Crawford, profesora de investigación en la USC Annenberg, es uno de los nombres que critican el uso de la IA. El experto cita que el problema radica en la dificultad de automatizar la conexión entre los movimientos faciales y las categorías emocionales básicas. Y eso «lleva a la pregunta más amplia de si las emociones pueden agruparse adecuadamente en un pequeño número de categorías discretas».

“La dificultad de automatizar la conexión entre los movimientos faciales y las categorías básicas de emociones lleva a preguntas más amplias sobre si las emociones se pueden agrupar correctamente en un pequeño número de categorías en primer lugar”, escribe la experta en su libro Atlas of AI. .

READ  Se rumorea que el iPhone 14 Pro volverá a utilizar un diseño perforado

«Existe el problema persistente de que las expresiones faciales pueden indicar muy poco de nuestros verdaderos estados emocionales, como puede atestiguar cualquiera que haya sonreído sin sentir eso por dentro».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *