Meta anunció el pasado miércoles, 27 de septiembre de 2023, la llegada de chatbots con personalidades similares a determinadas celebridades, con los que será posible chatear. Presentado como una evolución orientada a entretenimiento de ChatGPT y otras formas de Inteligencia Artificial (o IA), este último desarrollo tecnológico podría resultar peligroso.

Meta (anteriormente conocido como Facebook) los ve como una IA ‘divertida‘. Otros, sin embargo, consideran que este último avance tecnológico podría marcar el primer paso hacia la creación de ‘los artefactos más peligrosos de la historia de la humanidad‘, citando el ensayo del filósofo estadounidense Daniel C. Dennett sobre las personas falsificadas.

El miércoles 27 de septiembre, el gigante de las redes sociales anunció el lanzamiento de 28 chatbots (agentes conversacionales), que supuestamente tienen personalidad propia y han sido diseñados especialmente para usuarios más jóvenes. Estos incluyen a Víctor, un supuesto triatleta que puede motivarte ‘a ser tu mejor yo‘, Sally, la ‘amiga de espíritu libre que te dirá cuándo respirar profundamente‘, o Max, un ‘sub-chef experimentado‘ que dará ‘trucos y consejos culinarios’.

Para reforzar la idea de que estos chatbots tienen personalidad y no son simplemente una amalgama de algoritmos, Meta les ha puesto una cara a cada uno de ellos. Gracias a las asociaciones con celebridades, estos robots se parecen a DJ estadounidense de la jet-set Paris Hilton, a la estrella de TikTok Charli D’Amelio o a la tenista estadounidense-japonesa Naomi Osaka.

Y eso no es todo. Meta ha abierto cuentas de Facebook e Instagram para cada uno de sus agentes conversacionales para darles una existencia fuera de las interfaces de chat y está trabajando para darles voz el próximo año. La empresa matriz del imperio de Mark Zuckerberg también busca guionistas que pueda ‘desarrollar personajes y otros contenidos narrativos de apoyo que atrajeran a un público amplio‘.

Meta puede presentar estos 28 chatbots como una tarea inocente para distraer masivamente a los jóvenes usuarios de Internet, pero todos estos esfuerzos apuntan hacia un proyecto ambicioso para construir inteligencias artificiales que se parezcan lo más posible a los humanos, según The Rolling Stone.

Esta carrera hacia las ‘personas falsificadas‘ preocupa a muchos observadores, que ya están preocupados por los recientes desarrollos realizados en la investigación de modelos de lenguaje colosal (LLM, por sus siglas en inglés), como ChatGPT y Llama 2, su contraparte de Facebook. Sin ir tan lejos como Dennett, que pide que se encierre a personas como Zuckerberg, ‘hay una serie de pensadores que denuncian el enfoque deliberadamente engañoso de estos grandes grupos‘, afirmó Ibo van de Poel, profesor de ética y tecnología en la la Universidad Tecnológica de Delft, en Países Bajos.

La idea de agentes conversacionales ‘con una personalidad es literalmente imposible’, afirmó van de Poel. Los algoritmos son incapaces de demostrar ‘intención en sus acciones o libre albedrío, dos características que se consideran íntimamente ligadas a la idea de personalidad‘.

Meta y otros pueden, en el mejor de los casos, imitar ciertos rasgos que conforman una personalidad. ‘Debe ser tecnológicamente posible, por ejemplo, enseñar a un chatbot a actuar como la persona que representa‘, afirmó van de Poel. Por ejemplo, la IA Amber, de Meta, que se supone que se parece a Hilton, puede hablar de la misma manera que su alter ego humano.

El siguiente paso será capacitar a estos LLM para que expresen las mismas opiniones que la persona a la que se parecen. Este es un comportamiento mucho más complicado de programar, ya que implica crear una especie de imagen mental precisa de todas las opiniones de una persona. También existe el riesgo de que los chatbots con personalidad salgan mal. Uno de los agentes conversacionales que Meta probó expresó opiniones ‘misóginas‘, según el Wall Street Journal, que pudo consultar documentos internos de la empresa. Otro cometió el ‘pecado mortal‘ de criticar a Zuckerberg y elogiar a TikTok.

Para construir estos chatbots, Meta explica que se propuso brindarles ‘historias personales únicas‘. En otras palabras, los creadores de estas IA les han escrito biografías con la esperanza de que puedan desarrollar una personalidad basada en lo que han leído sobre sí mismos. ‘Es un enfoque interesante, pero habría sido beneficioso añadir psicólogos a estos equipos para comprender mejor los rasgos de la personalidad‘, afirmó Anna Strasser, una filósofa alemana que participó en un proyecto para crear un LLM capaz de filosofar.

El último proyecto de IA de Meta está claramente impulsado por la sed de ganancias. ‘La gente sin duda estará dispuesta a pagar para poder hablar y tener una relación directa con Paris Hilton u otras celebridades‘, dijo Strasser.

Cuanto más sientan los usuarios que están hablando con un ser humano, ‘más cómodos se sentirán, más tiempo permanecerán y más probabilidades habrá de que regresen‘, dijo van de Poel. Y en el mundo de las redes sociales, el tiempo (gastado en Facebook y sus anuncios) es oro.

Ciertamente, no es sorprendente que la primera incursión de Meta en la IA con ‘personalidad‘ sean los chatbots dirigidos principalmente a adolescentes. ‘Sabemos que los jóvenes son más susceptibles de caer en el antropomofirsmo‘, afirmó Strasser.

Sin embargo, los expertos entrevistados consideran que Meta está jugando a un juego peligroso al resaltar las ‘características humanas‘ de sus IA. ‘Realmente hubiera preferido que este grupo se hubiera esforzado más en explicar los límites de estos agentes conversacionales, en lugar de intentar hacerlos parecer más humanos‘, dijo van de Poel.

La aparición de estos potentes LLM ha alterado ‘la dicotomía entre lo que es una herramienta u objeto y lo que es un ser vivo. Estos ChatGPT son un tercer tipo de agente que se sitúa en algún punto entre los dos extremos‘, afirmó Strasser. Los seres humanos todavía están aprendiendo cómo interactuar con estas nuevas y extrañas entidades, por lo que, al hacer creer a la gente que un agente conversacional puede tener una personalidad, Meta sugiere que sea tratado más como otro ser humano que como una herramienta.

Los usuarios de Internet tienden a confiar en lo que dicen estas IA‘, lo que las hace peligrosas, afirmó van de Poel. No se trata sólo de un riesgo teórico: un hombre en Bélgica acabó suicidándose en marzo de 2023 tras discutir las consecuencias del calentamiento global con un agente conversacional durante seis semanas.

Por encima de todo, si la frontera entre el mundo de las IA y el de los humanos finalmente se difumina por completo, ‘esto podría destruir potencialmente la confianza en todo lo que encontramos online, porque no sabremos quién escribió qué‘, afirmó Strasser. Esto, como advirtió Dennett en su ensayo, abriría la puerta a ‘destruir nuestra civilización. La democracia depende del consentimiento informado (no mal informado) de los gobernados [que no se puede obtener si ya no sabemos en qué y en quién confiar]‘.

Queda por ver si chatear con una IA parecida a Hilton significa que estamos en el camino de destruir el mundo tal como lo conocemos.

Fuente

Comparte este contenido

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.