Microsoft está cambiando sus políticas de protocolo de inteligencia artificial y ya no permitirá que las empresas usen su tecnología para hacer expresiones como emoción, género o edad usando tecnología de reconocimiento facial, dijo la compañía.
Como parte de su nuevo “estándar de IA responsable”, Microsoft dice que quiere mantener “a las personas y sus objetivos en el centro de las decisiones de diseño de computadoras”. La compañía dice que las políticas de alto nivel conducirán a cambios reales en la práctica, con el cambio de algunas características y la retirada de otras de las ventas.
Por ejemplo, el servicio Azure Face de Microsoft es una herramienta de reconocimiento facial utilizada por empresas como Uber como parte de su proceso de verificación de identidad. Ahora, cualquier empresa que quiera usar las funciones de reconocimiento facial del servicio debe solicitar seriamente el uso, incluidas las que ya están configuradas en sus productos, para demostrar que los estándares de IA de Microsoft cumplen con los estándares y que las funciones benefician al usuario final. Comunidad.
Microsoft afirma que incluso con empresas accesibles, algunas de las características controvertidas de Azure Face ya no se pueden usar, y la empresa está retirando la tecnología de análisis facial que predice estados emocionales y características como el género o la edad.
“Colaboramos con investigadores internos y externos para comprender las limitaciones y los beneficios potenciales de esta tecnología y realizar intercambios”, dijo Sarah Byrd, Gerente de Producto de Microsoft. “Especialmente en el caso de la clasificación emocional, estos esfuerzos han planteado cuestiones importantes sobre la privacidad, la falta de consenso sobre la definición de ’emociones’ y la incapacidad de generalizar la relación entre las expresiones faciales y los estados emocionales”.
Microsoft no ha eliminado por completo el reconocimiento emocional: la empresa seguirá usándolo internamente para acceder a herramientas como Seeing AI, que busca describir verbalmente el mundo a los usuarios con problemas de visión.
De manera similar, la compañía ha restringido el uso de su tecnología de voz neuronal personalizada, que permite la creación de voces sintéticas casi idénticas a la fuente original. “Es… fácil imaginar cómo podría usarse esto para hacerse pasar por oradores y engañar a los oyentes”, dijo Natasha Crompton, directora de inteligencia artificial de la compañía.
A principios de este año, Microsoft comenzó a poner marcas de agua en sus voces artificiales, que incluían fluctuaciones pequeñas e inaudibles en la salida, lo que significaba que la empresa podía saber cuándo estaba grabando usando su tecnología. “Con el avance de la tecnología TTS neurológica, el habla artificial ya no se puede distinguir de las voces humanas y existe el riesgo de una duplicación profunda maliciosa”, dijo Qinying Liao de Microsoft.
“Lector. Organizador. Exasperantemente humilde experto en Twitter. Comunicador certificado”.
More Stories
Modo de juego Soul Brawl explicado en Teamfight Tactics (TFT).
Meta lanza la primera actualización de funciones para subprocesos desde su lanzamiento
Es hora de que Microsoft ponga el modo multijugador en línea en todos los niveles de Game Pass