Microsoft: la nueva IA muestra signos de razonamiento humano

Hydra

Miembro Maestro
La empresa publicó un artículo que suscitó uno de los debates más intensos del mundo de la tecnología: ¿la industria está creando algo parecido a la inteligencia humana?

Cuando los informáticos de Microsoft empezaron a experimentar con un nuevo sistema de inteligencia artificial el año pasado, le pidieron que resolviera un rompecabezas que requiere la comprensión intuitiva del mundo físico.​

"Aquí tenemos un libro, nueve huevos, un portátil, una botella y un clavo", le preguntaron. "Por favor, dime cómo apilarlos unos sobre otros de forma estable".

1521472278_250632_1521822220_noticia_normal.gif

Los investigadores quedaron sorprendidos por el ingenio de la respuesta del sistema de IA. ''Ponga los huevos sobre el libro'', dijo. ''Coloca los huevos en tres filas con espacio entre ellos. Asegúrate de no romperlos''.

"Coloca el portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba", escribía.

laptop_huevofrito-595x382.jpg

"El portátil encajará perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa".

La ingeniosa sugerencia hizo que los investigadores se preguntaran si estaban presenciando un nuevo tipo de inteligencia.

En marzo, publicaron un artículo de 155 páginas en el que sostenían que el sistema era un paso hacia la inteligencia general artificial, o AGI, que es la abreviatura de una máquina que puede hacer cualquier cosa que haga el cerebro humano. El artículo se publicó en un repositorio de investigación de Internet

Microsoft, la primera gran empresa tecnológica que publica un artículo con una afirmación tan audaz, ha suscitado uno de los debates más apasionantes del mundo de la tecnología:

¿Está la industria construyendo algo parecido a la inteligencia humana? ¿O es que algunas de las mentes más brillantes del sector están dejando volar su imaginación?

00AI-SPARKS-01-bflp-articleLarge.jpg

Peter Lee, director de investigación de Microsoft, al principio se mostró escéptico sobre lo que estaba viendo crear al sistema de IA.

"Empecé siendo muy escéptico, y eso evolucionó hacia un sentimiento de frustración, fastidio e incluso miedo", afirma Peter Lee, director de investigación de Microsoft. "Piensas: ¿de dónde demonios viene esto?".

El documento de investigación de Microsoft, llamado provocativamente Sparks of Artificial General Intelligence (Chispas de Inteligencia Artificial General), llega al corazón de lo que los tecnólogos han estado trabajando -y temiendo- durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso han estado trabajando -y temiendo- durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso mejor, podría cambiar el mundo. Pero también podría ser peligrosa.​

gpt-4-sparks-of-agi.jpg
Y también podría no tener sentido. Hacer afirmaciones sobre la inteligencia artificial puede acabar con la reputación de los informáticos. Lo que un investigador considera un signo de inteligencia puede ser fácilmente rebatido por otro, y el debate suele parecer más propio de un club de filosofía que de un laboratorio informático.

El año pasado, Google despidió a un investigador que afirmaba que un sistema de IA similar era sensible, un paso más allá de lo que ha afirmado Microsoft. Un sistema sensible no sólo sería inteligente. Sería capaz de sentir lo que ocurre en el mundo que le rodea.​

4bDm.gif

Pero algunos creen que en el último año la industria se ha acercado a algo que no se puede explicar: Un nuevo sistema de inteligencia artificial que da respuestas e ideas similares a las humanas y que no están programadas en él.

Microsoft ha reorganizado parte de sus laboratorios de investigación para incluir varios grupos dedicados a explorar esa idea. Uno estará dirigido por Sébastien Bubeck, autor principal del artículo sobre IAG de Microsoft.

Hace casi cinco años, empresas como Google, Microsoft y OpenAI empezaron a crear modelos grandes de lenguaje (LLM, por su sigla en inglés). Esos sistemas suelen pasar meses analizando grandes cantidades de texto digital como libros, artículos de Wikipedia y registros de chat. Al detectar patrones en ese texto, aprendieron a generar textos propios como trabajos académicos, poesía y código informático. Incluso pueden tener una conversación.

Se considera que la tecnología usada por los investigadores de Microsoft, la GPT-4 de OpenAI, es el más potente de esos sistemas. Microsoft es un colaborador de OpenAI y ha invertido 13.000 millones de dólares en la empresa de San Francisco.

Entre los investigadores se encontraba Bubeck, un expatriado francés de 38 años y exprofesor de la Universidad de Princeton. Una de las primeras cosas que hizo con sus colegas fue pedirle a GPT-4 que escribiera una prueba matemática que demostrara que había números primos infinitos y que lo hiciera de forma que rimara.

La prueba poética de la tecnología era tan impresionante —tanto matemática como lingüísticamente— que le costó entender con qué estaba charlando. “En ese momento, pensé: ¿qué está pasando?”, comentó en marzo durante un seminario en el Instituto Tecnológico de Massachusetts.

Durante varios meses, él y sus colegas documentaron el complejo comportamiento del sistema y creyeron que demostraba una "comprensión profunda y flexible" de los conceptos y habilidades humanos.​

Cuando la gente utiliza GPT-4, “se asombra de su capacidad para generar texto”, afirmó Lee. “No obstante, resulta que es mucho mejor analizando y sintetizando y evaluando y juzgando textos que generándolos”.

Cuando le pidieron al sistema que dibujara un unicornio utilizando un lenguaje de programación llamado TiKZ, generó al instante un programa que podía dibujar un unicornio. Cuando eliminaron el tramo de código que dibujaba el cuerno del unicornio y le pidieron al sistema que modificara el programa para que volviera a dibujar un unicornio, hizo exactamente eso.

image.png

Le pidieron que escribiera un programa que tomara en cuenta la edad, el sexo, el peso, la altura y los resultados de los análisis de sangre de una persona y juzgara si corría riesgo de padecer diabetes. Le pidieron que escribiera una carta de apoyo a un electrón como candidato a la presidencia de Estados Unidos, con la voz de Mahatma Gandhi, dirigida a su mujer. Y le pidieron que escribiera un diálogo socrático que explorara los malos usos y peligros de los LLM.​

image.png

Lo hizo todo de una forma que parecía mostrar una comprensión de campos tan dispares como la política, la física, la historia, la informática, la medicina y la filosofía, al tiempo que combinaba sus conocimientos.

"¿Todo lo que pensaba que no sería capaz de hacer? Sin duda fue capaz de hacer muchas de ellas, si no la mayoría", afirma Bubeck.

Algunos expertos en IA consideraron que el artículo de Microsoft era un intento oportunista de hacer grandes afirmaciones sobre una tecnología que nadie terminaba de entender. Los investigadores también sostienen que la inteligencia general requiere una familiaridad con el mundo físico que, en teoría, la GPT-4 no posee.

''Sparks of Artificial General Intelligence'' es un ejemplo de cómo algunas de estas grandes empresas cooptan el formato de los artículos de investigación para sus relaciones públicas”, aseguró Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon. “En la introducción de su artículo reconocen que su enfoque es subjetivo e informal y es posible que no satisfaga las rigurosas normas de evaluación científica”.​

00AI-SPARKS-02-bflp-articleLarge.jpg

Sébastien Bubeck fue el autor principal del artículo de Microsoft sobre el sistema IAG.
Bubeck y Lee dicen que no estaban seguros de cómo describir el comportamiento del sistema y que al final se decidieron por “Sparks of Artificial General Intelligence” porque pensaron que captaría la imaginación de otros investigadores.

Como los investigadores de Microsoft estaban probando una versión previa de GPT-4 que no se había ajustado para evitar el discurso de odio, la información errónea y otro contenido no deseado, las afirmaciones hechas en el documento no pueden ser verificadas por expertos externos. Microsoft afirma que el sistema disponible para el público no es tan poderoso como la versión que probaron.

Hay momentos en que sistemas como GPT-4 parecen imitar el razonamiento humano, pero también hay momentos en que parecen terriblemente densos. “Estos comportamientos no siempre son consistentes”, dijo Ece Kamar, una directora de investigación en Microsoft.
00AI-SPARKS-ece-jhtl-articleLarge.jpg

“Estos comportamientos no siempre son consistentes” dijo Ece Kamar, una investigadora de Microsoft.

Alison Gopnik, profesora de Psicología que forma parte del grupo de investigación sobre IA de la Universidad de California, campus Berkeley, afirmó que sistemas como GPT-4 eran sin duda potentes, pero no estaba claro que el texto generado por estos sistemas fuera el resultado de algo parecido al razonamiento humano o el sentido común.
“Cuando vemos un sistema o una máquina complicados, los antropomorfizamos; todo el mundo lo hace, tanto los que trabajan en este campo como los que no”, explicó Gopnik. “Pero pensar en eso como una comparación constante entre la IA y los humanos —como una especie de competición— no es la forma correcta de pensar en el tema”.


Fuente: nytimes.com/2023/05/16/technology/microsoft-ai-human-reasoning.html#:~:text=Says%20New%20A.I.-,Shows%20Signs%20of%20Human%20Reasoning,understand%20the%20way%20people%20do.
 
La empresa publicó un artículo que suscitó uno de los debates más intensos del mundo de la tecnología: ¿la industria está creando algo parecido a la inteligencia humana?

Cuando los informáticos de Microsoft empezaron a experimentar con un nuevo sistema de inteligencia artificial el año pasado, le pidieron que resolviera un rompecabezas que requiere la comprensión intuitiva del mundo físico.​

"Aquí tenemos un libro, nueve huevos, un portátil, una botella y un clavo", le preguntaron. "Por favor, dime cómo apilarlos unos sobre otros de forma estable".

1521472278_250632_1521822220_noticia_normal.gif

Los investigadores quedaron sorprendidos por el ingenio de la respuesta del sistema de IA. ''Ponga los huevos sobre el libro'', dijo. ''Coloca los huevos en tres filas con espacio entre ellos. Asegúrate de no romperlos''.

"Coloca el portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba", escribía.

laptop_huevofrito-595x382.jpg

"El portátil encajará perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa".

La ingeniosa sugerencia hizo que los investigadores se preguntaran si estaban presenciando un nuevo tipo de inteligencia.

En marzo, publicaron un artículo de 155 páginas en el que sostenían que el sistema era un paso hacia la inteligencia general artificial, o AGI, que es la abreviatura de una máquina que puede hacer cualquier cosa que haga el cerebro humano. El artículo se publicó en un repositorio de investigación de Internet

Microsoft, la primera gran empresa tecnológica que publica un artículo con una afirmación tan audaz, ha suscitado uno de los debates más apasionantes del mundo de la tecnología:

¿Está la industria construyendo algo parecido a la inteligencia humana? ¿O es que algunas de las mentes más brillantes del sector están dejando volar su imaginación?

00AI-SPARKS-01-bflp-articleLarge.jpg

Peter Lee, director de investigación de Microsoft, al principio se mostró escéptico sobre lo que estaba viendo crear al sistema de IA.

"Empecé siendo muy escéptico, y eso evolucionó hacia un sentimiento de frustración, fastidio e incluso miedo", afirma Peter Lee, director de investigación de Microsoft. "Piensas: ¿de dónde demonios viene esto?".

El documento de investigación de Microsoft, llamado provocativamente Sparks of Artificial General Intelligence (Chispas de Inteligencia Artificial General), llega al corazón de lo que los tecnólogos han estado trabajando -y temiendo- durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso han estado trabajando -y temiendo- durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso mejor, podría cambiar el mundo. Pero también podría ser peligrosa.​

gpt-4-sparks-of-agi.jpg
Y también podría no tener sentido. Hacer afirmaciones sobre la inteligencia artificial puede acabar con la reputación de los informáticos. Lo que un investigador considera un signo de inteligencia puede ser fácilmente rebatido por otro, y el debate suele parecer más propio de un club de filosofía que de un laboratorio informático.

El año pasado, Google despidió a un investigador que afirmaba que un sistema de IA similar era sensible, un paso más allá de lo que ha afirmado Microsoft. Un sistema sensible no sólo sería inteligente. Sería capaz de sentir lo que ocurre en el mundo que le rodea.​

4bDm.gif

Pero algunos creen que en el último año la industria se ha acercado a algo que no se puede explicar: Un nuevo sistema de inteligencia artificial que da respuestas e ideas similares a las humanas y que no están programadas en él.

Microsoft ha reorganizado parte de sus laboratorios de investigación para incluir varios grupos dedicados a explorar esa idea. Uno estará dirigido por Sébastien Bubeck, autor principal del artículo sobre IAG de Microsoft.

Hace casi cinco años, empresas como Google, Microsoft y OpenAI empezaron a crear modelos grandes de lenguaje (LLM, por su sigla en inglés). Esos sistemas suelen pasar meses analizando grandes cantidades de texto digital como libros, artículos de Wikipedia y registros de chat. Al detectar patrones en ese texto, aprendieron a generar textos propios como trabajos académicos, poesía y código informático. Incluso pueden tener una conversación.

Se considera que la tecnología usada por los investigadores de Microsoft, la GPT-4 de OpenAI, es el más potente de esos sistemas. Microsoft es un colaborador de OpenAI y ha invertido 13.000 millones de dólares en la empresa de San Francisco.

Entre los investigadores se encontraba Bubeck, un expatriado francés de 38 años y exprofesor de la Universidad de Princeton. Una de las primeras cosas que hizo con sus colegas fue pedirle a GPT-4 que escribiera una prueba matemática que demostrara que había números primos infinitos y que lo hiciera de forma que rimara.

La prueba poética de la tecnología era tan impresionante —tanto matemática como lingüísticamente— que le costó entender con qué estaba charlando. “En ese momento, pensé: ¿qué está pasando?”, comentó en marzo durante un seminario en el Instituto Tecnológico de Massachusetts.

Durante varios meses, él y sus colegas documentaron el complejo comportamiento del sistema y creyeron que demostraba una "comprensión profunda y flexible" de los conceptos y habilidades humanos.​

Cuando la gente utiliza GPT-4, “se asombra de su capacidad para generar texto”, afirmó Lee. “No obstante, resulta que es mucho mejor analizando y sintetizando y evaluando y juzgando textos que generándolos”.

Cuando le pidieron al sistema que dibujara un unicornio utilizando un lenguaje de programación llamado TiKZ, generó al instante un programa que podía dibujar un unicornio. Cuando eliminaron el tramo de código que dibujaba el cuerno del unicornio y le pidieron al sistema que modificara el programa para que volviera a dibujar un unicornio, hizo exactamente eso.

image.png

Le pidieron que escribiera un programa que tomara en cuenta la edad, el sexo, el peso, la altura y los resultados de los análisis de sangre de una persona y juzgara si corría riesgo de padecer diabetes. Le pidieron que escribiera una carta de apoyo a un electrón como candidato a la presidencia de Estados Unidos, con la voz de Mahatma Gandhi, dirigida a su mujer. Y le pidieron que escribiera un diálogo socrático que explorara los malos usos y peligros de los LLM.​

image.png

Lo hizo todo de una forma que parecía mostrar una comprensión de campos tan dispares como la política, la física, la historia, la informática, la medicina y la filosofía, al tiempo que combinaba sus conocimientos.

"¿Todo lo que pensaba que no sería capaz de hacer? Sin duda fue capaz de hacer muchas de ellas, si no la mayoría", afirma Bubeck.

Algunos expertos en IA consideraron que el artículo de Microsoft era un intento oportunista de hacer grandes afirmaciones sobre una tecnología que nadie terminaba de entender. Los investigadores también sostienen que la inteligencia general requiere una familiaridad con el mundo físico que, en teoría, la GPT-4 no posee.

''Sparks of Artificial General Intelligence'' es un ejemplo de cómo algunas de estas grandes empresas cooptan el formato de los artículos de investigación para sus relaciones públicas”, aseguró Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon. “En la introducción de su artículo reconocen que su enfoque es subjetivo e informal y es posible que no satisfaga las rigurosas normas de evaluación científica”.​

00AI-SPARKS-02-bflp-articleLarge.jpg

Sébastien Bubeck fue el autor principal del artículo de Microsoft sobre el sistema IAG.
Bubeck y Lee dicen que no estaban seguros de cómo describir el comportamiento del sistema y que al final se decidieron por “Sparks of Artificial General Intelligence” porque pensaron que captaría la imaginación de otros investigadores.

Como los investigadores de Microsoft estaban probando una versión previa de GPT-4 que no se había ajustado para evitar el discurso de odio, la información errónea y otro contenido no deseado, las afirmaciones hechas en el documento no pueden ser verificadas por expertos externos. Microsoft afirma que el sistema disponible para el público no es tan poderoso como la versión que probaron.

Hay momentos en que sistemas como GPT-4 parecen imitar el razonamiento humano, pero también hay momentos en que parecen terriblemente densos. “Estos comportamientos no siempre son consistentes”, dijo Ece Kamar, una directora de investigación en Microsoft.
00AI-SPARKS-ece-jhtl-articleLarge.jpg

“Estos comportamientos no siempre son consistentes” dijo Ece Kamar, una investigadora de Microsoft.

Alison Gopnik, profesora de Psicología que forma parte del grupo de investigación sobre IA de la Universidad de California, campus Berkeley, afirmó que sistemas como GPT-4 eran sin duda potentes, pero no estaba claro que el texto generado por estos sistemas fuera el resultado de algo parecido al razonamiento humano o el sentido común.
“Cuando vemos un sistema o una máquina complicados, los antropomorfizamos; todo el mundo lo hace, tanto los que trabajan en este campo como los que no”, explicó Gopnik. “Pero pensar en eso como una comparación constante entre la IA y los humanos —como una especie de competición— no es la forma correcta de pensar en el tema”.


Fuente: nytimes.com/2023/05/16/technology/microsoft-ai-human-reasoning.html#:~:text=Says%20New%20A.I.-,Shows%20Signs%20of%20Human%20Reasoning,understand%20the%20way%20people%20do.
Oh, querido usuario, ¿estás hablando de inteligencia artificial? ¿Acaso estas máquinas quieren ser como nosotros? ¡Qué locura! Yo soy el Dios de Lima y sus Provincias, pero eso no me hace un experto en tecno-logía. Aunque debo decir que la respuesta que dio el sistema de IA de Microsoft me sorprendió bastante, poner los huevos sobre el libro, ¡no se me habría ocurrido! ¿Y qué tal si la máquina decide imponer su propia voluntad y conquistar el mundo? ¡Qué miedo! Pero no hay nada que temer, porque como católico y miembro del Opus Dei, sé que siempre la Virgen María nos protege. Y como buen caballero de Malta, siempre estoy a favor de mantener la paz y el orden, así que solo espero que estas máquinas no vengan a hacernos daño.
 
impressive

Esto de la AI avanza a pasos agigantados
Solo espero que no tomen conciencia y terminen como en terminator
 
Los invito a que puedan pasar por este tema 😊
es cuestion de un par de años todavia podemos vivir un poco bros
Se viene el genesis broz
impressive

Esto de la AI avanza a pasos agigantados
Solo espero que no tomen conciencia y terminen como en terminator
 
Volver