Los límites se establecieron originalmente después de que varios usuarios mostraran que el bot actuaba de manera extraña durante las conversaciones. En algunos casos, se identifica como “Sydney”. Responde a las preguntas de culpa acusando, volviéndose hostil y negándose a interactuar con los usuarios. En una conversación con un reportero del Washington Post, Bode dijo que podía “sentir y pensar” y reaccionó enojado cuando le dijeron que la conversación estaba registrada.
El portavoz de Microsoft, Frank Shaw, se negó a comentar más allá de la publicación del blog del martes.
Microsoft está tratando de caminar por la delgada línea entre llevar sus herramientas al mundo real para generar publicidad y obtener pruebas gratuitas y comentarios de los usuarios, en contra de lo que los bots pueden hacer y pueden ser incómodos o peligrosos para quienes tienen acceso a ellos. La tecnología no está en el ojo público. Inicialmente, la compañía ganó elogios de Wall Street por lanzar su chatbot antes que su archirrival Google, que hasta hace poco era visto como líder en tecnología de IA. Las dos empresas están compitiendo entre sí y con empresas más pequeñas para desarrollar y mostrar la tecnología.
Bing Chat todavía está disponible solo para un número limitado de personas, pero Microsoft está ocupado aprobando más de una lista de espera de millones, tuiteó un ejecutivo de la compañía. Después de que su evento de lanzamiento del 7 de febrero se describiera como una actualización importante del producto que iba a revolucionar la forma en que las personas buscan en línea, desde entonces la compañía ha hecho que el lanzamiento de Bing se centre más en las pruebas y la depuración.
Los bots como Bing están entrenados en la regurgitación de texto sin procesar extraído de Internet, que incluye todo, desde comentarios en redes sociales hasta trabajos académicos. Con base en esa información, pueden predecir qué tipo de respuesta a cualquier pregunta tendría más sentido, lo que los hace parecer extraños. Los investigadores de ética de la IA han advertido en el pasado que estos poderosos algoritmos pueden funcionar de esta manera y que, sin el contexto adecuado, las personas podrían pensar que son emocionales o dar a sus respuestas más credibilidad de lo que valen.
“Lector. Organizador. Exasperantemente humilde experto en Twitter. Comunicador certificado”.
More Stories
Modo de juego Soul Brawl explicado en Teamfight Tactics (TFT).
Meta lanza la primera actualización de funciones para subprocesos desde su lanzamiento
Es hora de que Microsoft ponga el modo multijugador en línea en todos los niveles de Game Pass