"Idiotez Artificial"

Stertheone

Miembro Frecuente
201026-Zizek.jpg



"El lenguaje y la realidad son complicados. ¿Está preparada la IA para discernir tales diferencias?"




No hay nada nuevo en los "chatbots" capaces de mantener una conversación en lenguaje natural, comprender la intención básica de un usuario y ofrecer respuestas basadas en reglas y datos preestablecidos. Sin embargo, la capacidad de estos chatbots se ha incrementado drásticamente en los últimos meses, lo que ha generado preocupación y pánico en muchos ámbitos.

Mucho se ha dicho sobre cómo los chatbots auguran el fin del ensayo estudiantil tradicional. Pero un problema que merece una atención más cercana es cómo deberían responder los chatbots cuando los interlocutores humanos usan comentarios agresivos, sexistas o racistas para provocar al bot y hacer que este presente sus propias fantasías groseras como respuesta. ¿Deberían programarse a los IA para responder al mismo nivel que las preguntas que se plantean? Si decidimos que se requiere algún tipo de regulación, entonces debemos determinar hasta qué punto debería llegar la censura. ¿Se prohibirán las posturas políticas que algunos grupos consideran "ofensivas"? ¿Y qué hay de las expresiones de solidaridad con los palestinos de Cisjordania, o la afirmación de que Israel es un estado apartheid (que el ex presidente estadounidense Jimmy Carter mencionó en el título de un libro)? ¿Serán bloqueadas estas expresiones como "antisemitas"?

El problema no termina ahí. Como advierte el artista y escritor James Bridle, los nuevos IA se basan en la apropiación total de la cultura existente, y creer que son "realmente conocedores o significativos es activamente peligroso". Por lo tanto, también debemos ser muy cautelosos con los nuevos generadores de imágenes de IA. "En su intento de comprender y replicar la totalidad de la cultura visual humana", observa Bridle, "[ellos] parecen haber recreado también nuestros miedos más oscuros. Tal vez esto sea solo una señal de que estos sistemas son realmente buenos imitando la conciencia humana, hasta el horror que acecha en las profundidades de la existencia: nuestros miedos a la suciedad, la muerte y la corrupción". Pero ¿qué tan buenos son los nuevos IA aproximándose a la conciencia humana? Consideremos el caso de un bar que recientemente anunció una oferta de bebidas con los siguientes términos: "¡Compra una cerveza al precio de dos y recibe una segunda cerveza absolutamente gratis!". Para cualquier humano, esto es obviamente una broma. La clásica oferta de "compra uno y llévate otro" se reformula para anularse a sí misma. Es una expresión de cinismo que será apreciada como honestidad cómica, todo para impulsar las ventas. ¿Un chatbot captaría algo de esto? "Fuck" presenta un problema similar. Aunque designa algo que a la mayoría de las personas les gusta hacer (la cópula), también adquiere a menudo una valencia negativa ("¡Estamos jodidos!", "Vete a la mierda"). El lenguaje y la realidad son complicados. ¿Está preparada la IA para discernir tales diferencias?

En su ensayo de 1805 titulado "Sobre la formación gradual de los pensamientos en el proceso del habla" (publicado por primera vez póstumamente en 1878), el poeta alemán Heinrich von Kleist invierte la sabiduría común de que uno no debería abrir la boca para hablar a menos que tenga una idea clara de qué decir: "Si un pensamiento se expresa de manera confusa, no se sigue en absoluto que ese pensamiento haya sido concebido de manera confusa. Al contrario, es bastante posible que las ideas expresadas de la manera más confusa sean las que se pensaron de manera más clara". La relación entre el lenguaje y el pensamiento es extraordinariamente complicada. En un pasaje de uno de los discursos de Stalin a principios de la década de 1930, propone medidas radicales para "detectar y combatir sin piedad incluso a aquellos que se oponen a la colectivización solo en sus pensamientos, sí, lo digo en serio, deberíamos luchar incluso contra los pensamientos de las personas". Se puede suponer con seguridad que este pasaje no fue preparado de antemano. Después de dejarse llevar por el momento, Stalin se dio cuenta de inmediato de lo que acababa de decir. Pero en lugar de retractarse, decidió mantener su exageración. Como Jacques Lacan lo expresó más tarde, esto fue un caso de la verdad que emerge sorprendentemente a través del acto de enunciación. Louis Althusser identificó un fenómeno similar en la interacción entre prise y surprise. Alguien que de repente comprende ("prise") una idea quedará sorprendido por lo que ha logrado. Una vez más, ¿puede cualquier chatbot hacer esto?

El problema no es que los chatbots sean estúpidos; es que no son lo suficientemente "estúpidos". No es que sean ingenuos (que no captan la ironía y la reflexividad); es que no son lo suficientemente ingenuos (que no detectan cuándo la ingenuidad encubre perspicacia). El verdadero peligro, entonces, no es que las personas confundan a un chatbot con una persona real; es que comunicarse con los chatbots hará que las personas reales hablen como chatbots, perdiendo todos los matices e ironías, diciendo obsesivamente solo lo que creen que quieren decir. Cuando era más joven, un amigo acudió a un psicoanalista para recibir tratamiento después de una experiencia traumática.

La idea de mi amigo sobre lo que estos analistas esperaban de sus pacientes era un cliché, así que en su primera sesión entregó falsas "asociaciones libres" sobre cómo odiaba a su padre y quería que estuviera muerto. La reacción del analista fue ingeniosa: adoptó una postura ingenua "prefreudiana" y reprochó a mi amigo por no respetar a su padre ("¿Cómo puedes hablar así de la persona que te hizo ser lo que eres?"). Esta ingenuidad fingida envió un mensaje claro: no compro tus falsas "asociaciones". ¿Sería capaz un chatbot de captar este subtexto? Lo más probable es que no, porque es como la interpretación de Rowan Williams sobre el príncipe Myshkin en "El idiota" de Dostoyevski. Según la lectura estándar, Myshkin, "el idiota", es un hombre santificado, "positivamente bueno y hermoso", que es llevado a la locura aislada por las brutalidades y pasiones crueles del mundo real. Pero en la relectura radical de Williams, Myshkin representa el ojo de la tormenta: aunque sea bueno y santo, él es quien desencadena la devastación y la muerte que presencia, debido a su papel en la compleja red de relaciones que lo rodea.

No es solo que Myshkin sea un ingenuo simplón. Es que su tipo particular de obtusidad lo deja inconsciente de sus efectos desastrosos en los demás. Es una persona plana que literalmente habla como un chatbot. Su "bondad" radica en el hecho de que, al igual que un chatbot, reacciona a los desafíos sin ironía, ofrece lugares comunes carentes de reflexividad, lo toma todo literalmente y confía en un autocompletado mental en lugar de la formación auténtica de ideas.

Por esta razón, los nuevos chatbots se llevarán muy bien con los ideólogos de todo tipo, desde la multitud "despertada" de hoy en día hasta los nacionalistas "MAGA" que prefieren permanecer dormidos.


Fuente: Artículo del filósofo, teórico cultural e intelectual público esloveno Slavoj Zizek publicado eln marzo de 2023 en la revista PS Digital"
 
lo que pasa es como si un especialista en inteligencia artificial o minimo alguien del campo de machine learning se ponga a opinar de filosofia o temas culturales complejos, la inteligencia artificial esta empezando y esta configurada para lo que se esperaba tuviera su campo de accion, o si se quiere empezando por lo mas general y posible mayor utilidad, que eso no quiere decir que no se puede programar/entrenar/diseñar para otras cosas mas especificas o menos usadas por la mayoria en el futuro
b4de1bab-c805-4953-aa9a-cac1a27bf6de-resized.png
 
Parece que no leíste el artículo. Todo evento puede ser analizado desde la filosofía. No necesita ser experto en tecnología porque incluso el mismo experto no entiende por qué le llaman inteligencia. Por eso reemplazará los empleos en los que el humano no usaba su (verdadera) inteligencia y donde solo era un robot. Ya que cualquiera puede hacer ese trabajo. Responder a comandos solo es adiestramiento hasta un mono lo puede hacer. Si de almacenar conocimientos se trata pues un usb sería sabio. Por eso pone ejemplos mundanos, pero ni aún así entienden. Con algo que no razona y solo obedece. No puede haber inteligencia. A ver si así la captan...
 
pero tiene que saber de lo que opina pe sino es cualquier cosa q para eso estan las redes sociales, no como para un articulo poniendo su profesion/carrera/trayecroria como aval, lo de "verdadera inteligencia" no tengo idea a q ue te refieres segun la ciencia la inteligencia se puede reconocer mediante el comportamiento o accion de esta como en otros animales y es consenso universal que las ia ya la tienen, ahora como dije si quieres algo mas especifico, menos general solo se necesita programar/entrenar/diseñarlo (como uno lo entienda mejor) para eso ya se tiene las bases para ello y se ira desarrollando con los años
exited-resized.png
 
Volver