noviembre 21, 2024

Mundo completo de noticias

No tenemos suficiente tiempo, nos dice un contratista que trabaja en la verificación de hechos de Google Bart • Registro

No tenemos suficiente tiempo, nos dice un contratista que trabaja en la verificación de hechos de Google Bart • Registro

Los trabajadores que trabajan para mejorar la implementación del chatbot Bart de Google dicen que les han dicho que reduzcan la calidad y se concentren en trabajar más rápido. Uno de los trabajadores dijo que Bard a veces genera información falsa porque estos verificadores de hechos no tienen suficiente tiempo para verificar el lanzamiento del software. Registro.

Los grandes modelos de lenguaje como Bard aprenden qué palabras formar a continuación a partir de una cadena determinada al ingerir montañas de varias fuentes, como Internet, libros y documentos. Pero esta información es compleja, y los chatbots de inteligencia artificial que predicen oraciones no pueden distinguir los hechos de la ficción. Hacen todo lo posible para imitarnos a los humanos a partir de nuestro propio trabajo.

Se contrataron trabajadores colaborativos para evaluar la precisión de las respuestas de Bot, con la esperanza de hacer que los modelos de lenguaje grandes como Bart sean más precisos; Esa retroalimentación luego se retroalimenta a la canalización para que las futuras respuestas de los bots sean de mayor calidad. Google y otros están poniendo a los humanos al tanto para aumentar las capacidades expresivas de los modelos entrenados.

Ed Stackhouse: contratista desde hace mucho tiempo contratado por el proveedor de servicios de datos Appen, que trabaja en nombre de Google para desarrollar bart – A los trabajadores de reclamos no se les dio tiempo suficiente para revisar las publicaciones de Bard para verificar su exactitud.

Deben leer la línea de entrada y las respuestas de Bard, buscar en Internet información relevante y escribir notas comentando la calidad del texto. “Es posible que le den dos minutos para algo que en realidad toma 15 minutos para verificar”, nos dijo. Esto no es bueno para la optimización del chatbot.

READ  Microsoft anuncia un curso gratuito de capacitación en habilidades de IA generativa para capacitar a los estudiantes

Un ejemplo es mirar una propaganda creada por Bart que describe una empresa en particular. “Hay que comprobar si un negocio se lanzó en esa fecha, si preparó tal plan, si el director general es tal o cual”, dijo. Hay demasiados hechos para verificar y no hay suficiente tiempo para verificarlos a fondo.

Stackhouse es parte de un grupo de trabajadores contratados “¿Puede decirme los efectos secundarios de una receta en particular?” Puedes preguntarle al bardo. Tengo que ir y revisar cada uno. [Bard listed]. ¿Qué sucede si me equivoco en algo?”, preguntó. “Cada estímulo y respuesta que vemos en nuestro entorno es algo que puede llegar al cliente, el usuario final”.

No se trata solo de cuestiones médicas; otros temas también son peligrosos. Lanzar información errónea a los políticos de los partidos, por ejemplo, puede influir en la opinión pública en las elecciones y socavar la democracia.

Las preocupaciones de Stackhouse no son descabelladas. ChatGPT de OpenAI es notable Falsamente acusado Un alcalde de Australia fue declarado culpable de soborno a principios de la década de 2000.

Si trabajadores como Stackhouse no pueden detectar estos errores y corregirlos, la IA seguirá difundiendo mentiras. Argumentó que los chatbots como Bard podrían desencadenar un cambio en los hilos narrativos de la historia o la cultura humana, verdades importantes que podrían borrarse con el tiempo. “El gran peligro es que pueden engañar y hacer que la IA suene tan bien que la gente crea que es perfecta”.

Appen multó a los contratistas si no completaban el trabajo dentro del tiempo asignado, y los intentos de persuadir a los gerentes para que le dieran a Bard más tiempo para evaluar las respuestas de Bard no tuvieron éxito. Stackhouse es uno de un grupo de seis trabajadores que dicen que fueron despedidos por hablar y presentaron una queja por prácticas laborales injustas ante el organismo de control laboral de Estados Unidos, la Junta Nacional de Relaciones Laborales, con el Washington Post. Reportado por primera vez.

READ  Qué esperar (y no esperar) de Ubisoft en 2023

Los trabajadores acusan a Appen y Google de despidos ilegales e interferencia con sus esfuerzos para sindicalizarse. Según los informes, fueron despedidos debido a las condiciones comerciales. Stackhouse dijo que es difícil de creer porque Appen había enviado correos electrónicos a los trabajadores diciendo que “ha habido un aumento significativo en los trabajos” para Project Yukon, un proyecto destinado a evaluar texto para motores de búsqueda, incluido BART.

Appen les paga a los contratistas $ 81 adicionales además del salario base por trabajar 27 horas por semana. Se dice que los trabajadores ganan hasta $14.50 por hora durante una semana laboral típica de 26 horas. La empresa tiene ofertas de trabajo activas que buscan específicamente calificaciones en los motores de búsqueda para trabajar en el proyecto UConn. Appen no respondió Registrode preguntas

El grupo intentó ponerse en contacto con Google y se comunicó con el vicepresidente senior Prabhakar Raghavan, quien dirige el negocio de búsqueda del gigante tecnológico, pero fue ignorado.

La portavoz de Google, Courtenay Mencini, no abordó las preocupaciones de los trabajadores de que Bart podría ser dañino. “Como hemos compartido, Appen es responsable de las condiciones laborales de sus empleados, incluidos salarios, beneficios, cambios de trabajo y tareas asignadas. Por supuesto, respetamos el derecho de estos trabajadores a unirse a un sindicato o participar en actividades de organización, pero esto es un asunto entre los trabajadores y su empleador, Appen”, dijo en un comunicado.

Aún así, Stackhouse dijo: “Es su producto. Si quieren un producto defectuoso, es su responsabilidad”. ®