octubre 18, 2024

Mundo completo de noticias

No use código generado por Bart • Registro

No use código generado por Bart • Registro

IA para abreviar Google ha advertido a sus propios empleados que no divulguen información confidencial ni utilicen código creado por su chatbot de IA, Bart.

La política no sorprende, ya que Chocolate Factory aconsejó a los usuarios que no incluyan información confidencial en conversaciones con Bard en un aviso de privacidad actualizado. Otras grandes empresas han advertido de manera similar a sus empleados contra la filtración de documentos o códigos propietarios y han prohibido el uso de otros chatbots de IA.

Sin embargo, la advertencia interna de Google plantea preocupaciones de que no se puede confiar en las herramientas de inteligencia artificial creadas a partir de preocupaciones personales, especialmente si los propios creadores no las usan debido a los riesgos de privacidad y seguridad.

Advertir a sus propios trabajadores que no usen directamente el código creado por Bart socava las afirmaciones de Google de que su chatbot ayudará a los desarrolladores a ser más productivos. Dominio de la búsqueda y los anuncios dicho Reuters Su prohibición interna se introdujo porque Bart podía publicar “recomendaciones de código innecesarias”. Los problemas pueden conducir a programas defectuosos o software complejo e inflado que cuesta más tiempo arreglar si los desarrolladores no usan IA como código.

Demandan al fabricante de IA de voz respaldado por Microsoft

Nuance, el desarrollador de software de reconocimiento de voz comprado por Microsoft, está acusado de grabar y usar las voces de las personas sin permiso en una demanda enmendada presentada la semana pasada.

Tres personas demandaron a la empresa, alegando violaciones de la Ley de Privacidad de California, que establece que las empresas no pueden interceptar las comunicaciones de los consumidores ni grabar a las personas sin su consentimiento expreso por escrito. Según los demandantes, Nuance graba las voces de las personas en llamadas telefónicas con centros de llamadas, que utilizan su tecnología para verificar a la persona que llama.

READ  El MacBook Pro M2 de Apple podría llegar el próximo marzo

“Nuance realiza sus pruebas de voz completas en el contexto de ‘cada compromiso’ o llamada telefónica”, dijeron los demandantes. “En otras palabras, Nuance escucha en silencio la voz del consumidor en el fondo de una llamada, y el consumidor ignora por completo su interacción inconsciente con una empresa de terceros. Este proceso de captura, grabación, prueba y análisis de voz encubierta es uno de los componentes clave de la suite de seguridad biométrica general de Nuance”.

Argumentan que grabar las voces de las personas las expone a riesgos (podrían identificarse cuando se habla de información personal confidencial) y que sus voces podrían clonarse más allá de las características de seguridad de Nuance.

“Si no se controlan, los ciudadanos de California corren el riesgo de que terceros analicen sus voces y extraigan datos sin saber qué determina su estilo de vida, salud, confiabilidad, credibilidad y, sobre todo, quiénes son en realidad”, argumentan los documentos judiciales.

Registro Nuance pidió un comentario.

Google no apoya la idea de una nueva agencia reguladora federal de IA

El laboratorio de IA DeepMind de Google no quiere que el gobierno de los EE. UU. establezca una agencia enfocada únicamente en regular la IA.

En cambio, cree que el trabajo debe dividirse en diferentes campos, un paso a la vez. informe de 33 paginas [PDF] Recibido por el poste de washington. El documento fue presentado en respuesta a una solicitud abierta de comentarios públicos lanzada por la Administración Nacional de Telecomunicaciones e Información en abril.

La subsidiaria de IA de Google pidió un “enfoque de múltiples partes interesadas para el gobierno de la IA” y abogó por un “enfoque de centro y radio”, mediante el cual una organización central como NIST podría supervisar y guiar las políticas y los problemas manejados por varias agencias. Áreas de especialización.

READ  Google mata a Cloud Gaming Stadia y anuncia una computadora portátil para juegos en la nube

“La IA presentará problemas únicos en los servicios financieros, la atención médica y otras industrias reguladas y descubrirá áreas que se benefician de la experiencia de los reguladores con experiencia en esos campos, lo que funcionará mejor que una nueva agencia reguladora. Adáptese a los diversos contextos en los que la IA se utiliza”, dice el documento.

La visión de Google DeepMind difiere de la de otras empresas, incluidas OpenAI y Microsoft, con expertos en políticas y legisladores que apoyan la idea de crear una empresa centrada en la IA para abordar las regulaciones.

Microsoft se apresuró a lanzar el nuevo Bing a pesar de las advertencias de OpenAI

Según los informes, OpenAI advirtió a Microsoft que no lanzara un chatbot de Bing con tecnología GPT-4 demasiado rápido, creyendo que podría generar información errónea y lenguaje inapropiado.

Bing sorprendió a los usuarios con su tono espeluznante y, a veces, con su comportamiento manipulador o amenazante. Más tarde, Microsoft restringió las conversaciones para evitar que el chatbot se descarrilara. OpenAI instó previamente al titán tecnológico a posponer el lanzamiento de un producto para trabajar en sus problemas.

Pero Microsoft no escuchó y siguió adelante de todos modos. De acuerdo a desear El periodico de Wall Street. Sin embargo, ese no es el único conflicto entre los defensores de la IA. Unos meses antes del lanzamiento de Bing, OpenAI lanzó ChatGPT a pesar de las preocupaciones de Microsoft.

Microsoft posee una participación del 49 por ciento en OpenAI y puede acceder y utilizar la tecnología de la startup más que sus competidores. A diferencia de GPT-3, Microsoft no posee los derechos exclusivos de la licencia GPT-4. A veces, esto puede empeorar las cosas: OpenAI a menudo llega a los mismos clientes que Microsoft u otras empresas que compiten directamente con su inversor.

READ  ASUS y GREY Hong Kong lanzan la campaña global Zenfone 9: "Tamaño pequeño, grandes posibilidades"

Con el tiempo, esto puede arruinar su relación. “Lo que los lleva tanto al conflicto es que ambas partes quieren ganar dinero”, dijo Oren Edisoni, exdirector ejecutivo del Instituto Allen de Inteligencia Artificial. “El conflicto es que ambos intentan ganar dinero con los mismos productos.®