Google (GOOG, GOOGL) presentó el miércoles una serie de nuevas funciones de IA generativa en su vasto ecosistema de productos como parte de su conferencia I / O. El evento fue una forma equitativa para que la empresa mostrara en qué ha estado trabajando durante los últimos años. el año pasado y demostrar a sus usuarios e inversores que es ella, y no Microsoft (MSFT), la empresa líder en el campo de la inteligencia artificial.
Uno de los principales anuncios durante la feria incluyó la adición de una función de redacción de IA llamada Help Me Write, que lo ayudará a escribir correos electrónicos. Pero debido a su uso de IA generativa, la vicepresidenta de Google Workspace, Aparna Pappu, dice que la empresa debe tener cuidado de no impulsar respuestas inapropiadas o corre el riesgo de perder la confianza de los usuarios.
«La pérdida de la confianza del usuario es el último punto sin retorno», le dijo a Yahoo Finance. «Este es nuestro Northstar», la confianza del usuario no se puede perder. «»
La IA generativa ha planteado una serie de preguntas espinosas, desde si hará obsoletos trabajos como el suyo hasta si debería permitirse en las escuelas. La confianza que los usuarios pueden tener en la tecnología para producir respuestas precisas a sus indicaciones también se ha convertido en un punto de discusión.
Babu dice que esto también es parte de la razón por la que Google lanza sus funciones generativas de inteligencia artificial a evaluadores de confianza antes de que se hagan públicas.
«Antes de entrar [general availability] Tenemos que probarlo y ponerlo a prueba para incluso llevarlo a Labs. [Google’s early user test program] Babu explicó que pasa por muchas pruebas rigurosas de usabilidad, pruebas de responsabilidad y pruebas de seguridad antes de permitir que un solo usuario externo lo pruebe.
Las ofertas de IA generativa de Google y Microsoft indican específicamente que se encuentran en las primeras etapas de prueba o que algunas de las respuestas pueden no ser precisas. Además, la IA generativa en general es propensa a las «alucinaciones», que es básicamente una forma elaborada de decir que puede formar respuestas a ciertas consultas de usuarios aparentemente precisas, pero falsas.
Durante el segmento de «60 Minutos», el chatbot de Google, Bard, alucina con un libro inexistente. El CEO Sundar Pichai explicó durante el clip que el problema es uno que muchos chatbots tienen en este momento y que los ingenieros están tratando de comprender mejor.
Con ese fin, Babu dice que Google continúa probando sus sistemas como una forma de tratar de evitar respuestas incorrectas o inapropiadas.
«La IA responsable y segura no nace de la noche a la mañana. Son años de trabajo en IA y descubrir cómo hacer pruebas contradictorias”, explicó Babu. «Así que básicamente hay una IA responsable y segura probada en la forma en que construimos estos productos».
Un problema que, según Pappu, es exclusivo de Workspace es que lo utilizan miles de millones de usuarios, cada uno con su propia comprensión de la tecnología. Incorporar una función como la IA generativa en la ecuación sin confundir a estos usuarios es un rompecabezas en sí mismo.
«Tenemos 3 mil millones de usuarios», dijo. «Tenemos la responsabilidad de hacer que estas cosas sean realmente simples y fáciles de usar».
por daniel aceboEditor técnico en Yahoo Finance. SIGUELO @empleado
Haga clic aquí para obtener las últimas noticias del mercado de valores y un análisis en profundidad, incluidos los eventos que mueven las acciones.
Lea las últimas noticias financieras y comerciales de Yahoo Finance
«Pionero certificado de Internet. Propenso a ataques de apatía. Gurú de la Web. Comunicador. Lector sutilmente encantador».
More Stories
La actualización de Elden Ring mejora Spirit Ashes, pero el personal de traducción que falta aún no se ha agregado
Un artículo de investigación mostró que Apple utilizó Google Slides para entrenar dos modelos de inteligencia artificial.
El precio de PlayStation VR2 para PS5 es el más bajo hasta la fecha con un descuento de $200