ElDemocrata

España en español es para cualquier persona que viva en España, visite España o cualquier persona interesada en las últimas noticias, eventos y deportes en España. Descubra más ahora.

Los expertos se preguntan si puede hacer que la IA parezca un ser humano

Los expertos se preguntan si puede hacer que la IA parezca un ser humano

David Silver, líder del Grupo de Investigación de Aprendizaje por Refuerzo en DeepMind, ha sido galardonado con la clasificación profesional honoraria de “9º Dan” para AlphaGo.

Jung Yoon Ji | AFP | imágenes falsas

Los informáticos se preguntan si DeepMind y el alfabetoUna empresa británica ampliamente conocida como uno de los laboratorios de inteligencia artificial líderes en el mundo, podrá crear máquinas con el tipo de inteligencia «general» que vemos en humanos y animales.

En su búsqueda de la inteligencia artificial general, a veces llamada IA ​​a nivel humano, DeepMind está centrando una gran parte de sus esfuerzos en un enfoque llamado «aprendizaje por refuerzo».

Esto implica programar una IA para que realice ciertas acciones con el fin de maximizar sus posibilidades de obtener una recompensa en una situación determinada. En otras palabras, el algoritmo «aprende» a completar una tarea buscando estas recompensas preprogramadas. Esta técnica se ha utilizado con éxito para entrenar a los modelos de IA sobre cómo jugar (y sobresalir en) juegos como el Go y el ajedrez. Pero sigue siendo relativamente tonto o «estrecho». El popular software AlphaGo AI de DeepMind no puede dibujar un stickman o diferenciar entre un gato y un conejo, por ejemplo, mientras que un niño de siete años sí.

A pesar de esto, DeepMind, que fue adquirido por Google en 2014 por alrededor de $ 600 millones, cree que los sistemas de inteligencia artificial impulsados ​​por el aprendizaje por refuerzo pueden teóricamente crecer y aprender tanto que rompen la barrera teórica de la inteligencia artificial sin nuevos avances tecnológicos.

Los investigadores de la empresa, que ha crecido a unas 1.000 personas bajo la propiedad de Alphabet, argumentaron que el una hoja Presenté al Artificial Intelligence Journal revisado por pares el mes pasado que «la recompensa es suficiente» para acceder a la IA general. era el papel Reportado por primera vez por VentureBeat la semana pasada.

En el artículo, los investigadores afirman que si sigues «recompensando» un algoritmo cada vez que haces algo que quieres, que es el núcleo del aprendizaje por refuerzo, eventualmente comenzará a mostrar signos de inteligencia general.

READ  Las pantallas OLED del iPhone 14 tienden a provenir del rival Samsung

Los autores escriben: «La recompensa es suficiente para impulsar el comportamiento que exhibe las habilidades estudiadas en inteligencia natural y artificial, incluidos el conocimiento, el aprendizaje, la cognición, la inteligencia social, el lenguaje, la generalización y la imitación».

«Sugerimos que los clientes que aprenden a través de la experiencia de prueba y error para maximizar la recompensa pueden aprender el comportamiento que exhibe la mayoría, si no todas, estas capacidades y, por lo tanto, los poderosos agentes de aprendizaje por refuerzo podrían constituir una solución AGI».

Sin embargo, no todo el mundo está convencido.

Sam Weniger, un investigador de inteligencia artificial en Berlín, dijo a CNBC que la visión de «la recompensa es suficiente» de DeepMind es «una posición filosófica un tanto marginal, presentada engañosamente como una ciencia sólida».

Dijo que el camino hacia AGI es complejo y que la comunidad científica reconoce que existen innumerables desafíos e incógnitas conocidas que «inculcan con razón un sentido de humildad» en la mayoría de los investigadores en el campo y les impiden hacer «declaraciones del abuelo» como «RL» es la respuesta definitiva, todo lo que necesites es la recompensa «.

DeepMind le dijo a CNBC que, si bien el aprendizaje por refuerzo ha estado detrás de algunos de los logros de investigación más conocidos, la tecnología de inteligencia artificial es solo una fracción de la investigación general que está realizando. La compañía dijo que cree que es importante entender las cosas en un nivel más fundamental, por lo que está persiguiendo otras áreas como la «inteligencia artificial simbólica» y la «formación basada en la población».

«En el enfoque algo típico de DeepMind, optaron por hacer declaraciones audaces que llamarían la atención a cualquier costo, en lugar de un enfoque más sutil», dijo Weiniger. «Esto está más cerca de la política que de la ciencia».

Stephen Meriti, investigador independiente en inteligencia artificial, le dijo a CNBC que existe una «diferencia entre la teoría y la práctica». También señaló que «una pila de dinamita probablemente sería suficiente para llevarla a la Luna, pero no es realmente práctico».

READ  Aleatorio: las modificaciones de la consola hacen realidad la 'GameCube portátil ficticia'

En última instancia, no hay evidencia en ninguno de los casos para decir si el aprendizaje por refuerzo conducirá alguna vez a la inteligencia artificial general.

«La verdad es que nadie lo sabe y el producto principal de DeepMind sigue siendo las relaciones públicas, no la innovación técnica o de productos», dijo a CNBC Rodolfo Rosini, un inversor en tecnología y emprendedor centrado en la inteligencia artificial.

El empresario William Tunstall-Pedoe, que vendió la aplicación Evi similar a Siri a Amazonas, dijo a CNBC que incluso si los investigadores tenían razón «no significa que llegaremos pronto, ni significa que no haya una forma mejor y más rápida de llegar allí».

El artículo La recompensa es suficiente de DeepMind fue escrito en coautoría por Richard Sutton y David Silver, quienes conocieron al CEO de DeepMind, Demis Hassabis, en la Universidad de Cambridge en la década de 1990.

El principal problema con la tesis planteada por «la recompensa es suficiente» no es que esté mal, sino que no puede estar mal y, por tanto, no satisface. El famoso estándar Karl Popper «Todas las hipótesis científicas son falsificables», dijo un investigador senior de inteligencia artificial en una gran empresa de tecnología de Estados Unidos, que deseaba permanecer en el anonimato debido a la naturaleza delicada de la discusión.

«Dado que Silver et al. Hablan en general, y la idea de recompensa no está adecuadamente definida, siempre se pueden elegir casos en los que se satisfaga la hipótesis, o se puede cambiar la idea de recompensa para que se satisfaga», agregó la fuente.

«Como tal, el veredicto desafortunado aquí no es que estos miembros prominentes de nuestra comunidad de investigación se hayan equivocado de alguna manera, sino que lo que está escrito es trivial. ¿Qué se aprende de este documento, al final? , hallazgos procesables A partir del reconocimiento de la verdad inalienable de esta hipótesis, ¿fue suficiente este artículo? ”

READ  Pedidos anticipados de NVIDIA GeForce RTX 4090 y dónde encontrar existencias: informe en vivo

¿Qué es la Inteligencia General Artificial?

Si bien la IA a menudo se conoce como el santo grial de la comunidad de IA, no hay consenso sobre qué es realmente la IA. Una definición es la capacidad de un trabajador inteligente para comprender o aprender cualquier tarea intelectual que una persona pueda realizar.

Pero no todo el mundo está de acuerdo con eso y algunos se preguntan si alguna vez existirá AGI. Otros están horrorizados por sus efectos potenciales y si la IA construirá su propia o formas más poderosas de IA, la llamada superinteligencia.

El emprendedor convertido en ángel inversor Ian Hogarth le dijo a CNBC que espera que el aprendizaje reforzado no sea suficiente para tener acceso a la inteligencia artificial general. «Cuanto más alcancen las tecnologías actuales para la IA, menos tiempo tendremos para preparar los esfuerzos de seguridad de la IA y menores serán las posibilidades de que las cosas vayan bien para nuestra especie», dijo.

Weiniger sostiene que hoy no estamos más cerca de AGI que hace varias décadas. «Una cosa que ha cambiado fundamentalmente desde las décadas de 1950 y 1960 es que la ciencia ficción es ahora una herramienta viable para que las corporaciones gigantes confundan y engañen al público, a los periodistas y a los accionistas», dijo.

DeepMind alimenta cientos de millones de dólares de Alphabet cada año, compitiendo con empresas como Facebook y OpenAI para contratar a las personas más brillantes en el campo mientras busca desarrollar inteligencia artificial general. «Esta invención puede ayudar a la sociedad a encontrar respuestas a algunos de los desafíos científicos más urgentes y fundamentales del mundo», escribió DeepMind en su sitio web.

Laila Ibrahim, directora de operaciones de DeepMind, dijo el lunes que tratar de «descubrir cómo hacer operativa la visión» era el mayor desafío desde que se unió a la compañía en abril de 2018.