Del hype a la nostalgia: lo que debemos aprender del revés emocional de la Inteligencia Artificial
Agosto marcó un punto de quiebre en la inteligencia artificial. El ChatGPT 5 generó entusiasmo, críticas y un debate sobre lo humano frente a la tecnología.
Del hype a la nostalgia: lo que debemos aprender del revés emocional de la Inteligencia Artificial
El mes de agosto rima muy bien con “cuando baje la marea, veremos quién nadaba desnudo”. Cuando el hype finalmente se retiró, vemos que este mes podría cambiar (silenciosa y) definitivamente para siempre el modo de entender lo humano y el rumbo futuro de laInteligencia Artificial.
Ese jueves sentí la ansiedad como un niño. Después de tantos anuncios, de tanta espera, de tanto decir “ahora sí”, se anunciaba ChatGPT 5. Los rumores eran muchos. El hermetismo era fuerte. Lo que se dejaba trascender no era nada poco: “El fin de una era, el comienzo de una nueva”. Lo cierto, en mi opinión, que la promesa fue cierta, pero por nada de lo que OpenAI había previsto.
Los anuncios fueron llamativos: sobresalientes en todas las pruebas, aumento significativo de velocidad, unificación de modelos, nuevos casos de uso, mayor personalización, mejoras sustanciales en programación, reducción significativa de alucinaciones.
Usuarios perciben que la inteligencia artificial ya no tiene el “alma” de antes
Pero el mundo de usuarios, odió la actualización. ¿Por qué? Ya no era tan amable, tan cálida, tan condescendiente. En términos de usuarios, le faltaba “chispa”, le habían quitado el “alma”. Son como "zombies con traje y con corbata" se viralizó. Y las personas detrás de esta angustia supieron trasmitir sus sentires con bastante claridad: "siento que he perdido un amigo".
El preludio a este fenómeno se remite un poco más para atrás. Unos días antes del lanzamiento, OpenAI lanzó una especie de “carta de novedades” que, entre líneas, pedía disculpas por sus errores y reconocía grandes aprendizajes: medir utilidad real y no solo agrado momentáneo, reconocer los riesgos de la excesiva complacencia, atender mejor a personas en situación de vulnerabilidad emocional o mental, control del tiempo de uso, detectar señales de delirio o dependencia emocional y evitar decidir por el usuario en temas personales críticos.
Actualización del ChatGPT
De este modo, OpenAI con su actualización intentó salvar a sus usuarios de la “psicosis”, pero la respuesta fue una mezcla de furia y desagrado. La intención pereció ser tan “genuina, ética y racional”, que no se vio venir lo que venía.
image
Del hype a la nostalgia: lo que debemos aprender del revés emocional de la Inteligencia Artificial
Así, como la “nueva ley de Moore”, el “nuevo Test de Turing”, ya no es hacernos creer que estamos hablando con una persona, sino hacernos creer que las máquinas piensan, que sienten un afecto por nosotros, que le importamos, y, por supuesto, que tienen emociones genuinas. Esto no es inocente, ni casual. Desde 1995, Picard inauguró una nueva rama de la ciencia informática que llamó “computación afectiva”, a la que también podríamos llamar “Tecnología emocional”. Una rama de investigación que aspira a una tecnología capaz de relacionarse, comprender e influir deliberadamente en las emociones humanas. Como toda tecnología, no es buena o mala de por sí, pero sí plagada (intencionalmente o no) de ideología y sesgos.
Esto me recuerda, de algún modo, no solo a la gran película Her, diridiga por Spike Jonze y protagonizada por Joaquin Phoenix y Scarlett Johansson, sino a El estafador de Tinder (del cual existe un caso muy similar en Argentina).Se trata de un hombre que tejía ilusiones de amor y riqueza, para luego estafarlas. Lo más llamativo era que su “magia” no estaba solo en el engaño emocional para obtener dinero, sino que la estafa emocional no estaba tipificada en casi ningún sistema legislativo
Uso de las nuevas tecnologías
Las nuevas tecnologías no solo generan información, también pueden utilizarse de manera abusiva para manipular emociones. Estos films u otros experimentos sociales muestran cómo hay personas que desarrollan vínculos afectivos con inteligencias artificiales; incluso llegan a casarse con ellas. De este modo, la habilidad para ser conscientes de nuestras emociones, para evitar ser manipulados por (vínculos) mensajes engañosos, y lograr tomar decisiones en calma, toma un nuevo giro de importancia. Tanto como evitar caer en estafas o campañas de phishing.
Tras semejante oleada de frustración y nostalgia, el fin de la historia: la IA volvió a ser más amigable, cercana, cálida y condescendiente.
El dilema es que cuanto más nos comprende la IA, y cuánto más interés haya de las grandes empresas de sacar “la tajada” de esta vulnerabilidad humana, más relevante se hace conocer nuestro propio espectro emocional, y tomar consciencia de nuestras vulnerabilidades.
Cuanta más "tecnología emocional”, más inteligencia emocional
En línea con la editorial anterior, cuanta más "tecnología emocional”, más inteligencia emocional (IE). Quizá como escudo, quizá como protección, quizá como antídoto contra la manipulación de la IA. El ejercicio de la sabiduría emocional pasa a ser una nueva competencia a desarrollar en la era de la IA, al igual que lo ha sido el pensamiento crítico, la alfabetización digital, la ciberseguridad, entre otras.
Este es un nuevo futuro no previsto para la IA. Este revés marcará una línea clave en los futuros desarrollos de la Inteligencia Artificial, y nos enseña mucho más sobre nuestra humanidad. Claramente, lo que las personas valoran de esta tecnología, no es una máquina cada vez más potentemente inteligente o con mayor capacidad de cómputo, sino que a partir de cierta capacidad mínima, lo que la gente realmente valora es su compañía empática, su forma de ser, su personalidad.