Expertos quieren dotar a la IA de ‘alma’ humana para que no nos mate a todos – Cointelegraph Magazine

Expertos quieren dotar a la IA de ‘alma’ humana para que no nos mate a todos – Cointelegraph Magazine

Hasta ahora, se daba por sentado que dotar de emociones a la inteligencia artificial -permitiéndoles enfadarse o cometer errores- era una idea terrible. Pero, ¿y si la solución para mantener a los robots alineados con los valores humanos fuera hacerlos más humanos, con todos nuestros defectos y compasión?

Portada del libro Robot Souls. (Amazon)

Esa es la premisa de un libro de próxima publicación titulado Almas de robot: La programación en la humanidadde Eve Poole, académica de la Escuela Internacional de Negocios Hult. Poole sostiene que, en nuestro intento de perfeccionar la inteligencia artificial, hemos eliminado todo el “código basura” que nos hace humanos, incluidas las emociones, el libre albedrío, la capacidad de cometer errores, de ver el sentido del mundo y de afrontar la incertidumbre.

“En realidad, es este código ‘basura’ el que nos hace humanos y promueve el tipo de altruismo recíproco que mantiene viva y próspera a la humanidad”, escribe Poole.

“Si podemos descifrar ese código, la parte que hace que todos queramos sobrevivir y prosperar juntos como especie, podemos compartirlo con las máquinas. Dándoles, a todos los efectos, un ‘alma'”.

Por supuesto, el concepto de “alma” es religioso y no científico, así que, a efectos de este artículo, tomémoslo como una metáfora para dotar a la IA de propiedades más parecidas a las humanas.

El problema de la alineación de la IA

“Las almas son al 100% la solución al problema de la alineación”, afirma Kevin Fischer, fundador de Open Souls, refiriéndose al espinoso problema de garantizar que la IA trabaje en beneficio de la humanidad en lugar de volverse rebelde y destruirnos a todos.

Open Souls está creando bots de IA con personalidad, basándose en el éxito de su bot empático, “Samantha AGI”. El sueño de Fischer es imbuir a una inteligencia general artificial (AGI) con la misma agencia y ego que una persona. En el GitHub de SocialAGI, define las “almas digitales” como diferentes de los chatbots tradicionales en el sentido de que “las almas digitales tienen personalidad, impulso, ego y voluntad”.

Captura de pantalla de un chat entre una usuaria de Replika llamada Effy y su compañero de IA Liam. (ABC)

Sin duda, los críticos argumentarían que hacer IA más humanas es una idea terrible, dado que los humanos tienen una conocida propensión a cometer genocidios, destruir ecosistemas y mutilarse y asesinarse unos a otros.

El debate puede parecer académico ahora mismo, dado que aún no hemos creado una IA sensible ni resuelto el misterio de la AGI. Pero algunos creen que aún faltan unos pocos años. En marzo, los ingenieros de Microsoft publicaron un informe de 155 páginas titulado “Sparks of General Intelligence” (Chispas de Inteligencia General), que sugiere que la humanidad ya está en la cúspide de un avance de la AGI.

Y a principios de julio, OpenAI hizo un llamamiento a los investigadores para que se unieran a su “equipo de superalineación”: “Aunque la superinteligencia parece lejana ahora, creemos que podría llegar esta década”.

El enfoque será presumiblemente construir una IA de nivel humano que pueda controlar, y que investigue y evalúe técnicas para controlar una AGI superinteligente. La empresa está dedicando el 20% de su computación al problema.

El fundador de Singularity.net, Ben Goertzel, también cree que la AGI podría tardar entre cinco y veinte años. Cuando Magazine habló con él sobre este tema -y lleva pensando en estas cuestiones desde principios de la década de 1970-, dijo que simplemente no hay forma de que los humanos controlen una inteligencia 100 veces más inteligente que nosotros, al igual que nosotros no podemos ser controlados por un chimpancé.

“Entonces yo diría que la cuestión no es que la controlemos nosotros; la cuestión es: ¿está bien dispuesta hacia nosotros?”, preguntó.

Para Goertzel, enseñar e incentivar a la superinteligencia para que cuide de los humanos es la jugada inteligente. “Si construyes la primera AGI para que se ocupe del cuidado de ancianos, las artes creativas y la educación, a medida que se haga más inteligente, se orientará a ayudar a la gente y a crear cosas geniales. Si construyes la primera AGI para matar a los malos, quizá siga haciendo esas cosas”.

Aun así, para eso todavía faltan unos cuantos años.



Por ahora, el beneficio más obvio a corto plazo de hacer que la IA se parezca más a los humanos es que nos ayudará a crear chatbots menos molestos. A pesar de todas las útiles funciones de ChatGPT, su “personalidad” resulta, en el mejor de los casos, una insincera charlatana y, en el peor, una mentirosa empedernida.

Fischer está experimentando con la creación de IA con personalidades que interactúen con la gente de forma más empática y genuina. Es doctor en física cuántica teórica por Stanford y trabajó en aprendizaje automático para la empresa de interpretación de escáneres radiológicos Nines. Dirige Social AGI Discord y trabaja en la comercialización de IA con personalidades para su uso en empresas.

“En el transcurso del último año, explorando los límites de lo posible, llegué a comprender que la tecnología está ahí -o lo estará pronto- para crear entidades inteligentes, algo que se sienta como un alma. En el sentido de que la mayoría de la gente interactuará con ellos y dirá: ‘Esto está vivo, si apagas esto, esto es moralmente…'”

Está a punto de decir que sería moralmente incorrecto matar a la IA, pero, irónicamente, se interrumpe a mitad de la frase cuando la batería de su portátil está a punto de agotarse y se apresura a enchufarlo.

Otra IA con almas

La IA de Replika tiene personalidad y puede mantener conversaciones realistas. Otra captura de pantalla suministrada de Effy y Liam. (ABC)

Fischer no es el único que ha tenido la brillante idea de dotar de personalidad a la IA. Dirígete a Forefront.ai, donde puedes interactuar con Jesús, un chef con estrella Michelin, un experto en criptografía o incluso Ronald Regan, que responderán a tus preguntas.

Por desgracia, todas las personalidades parecen exactamente ChatGPT con un bigote falso.

Un ejemplo más exitoso es Replika.ai, una aplicación que permite a los corazones solitarios entablar una relación con una IA y mantener con ella conversaciones profundas y significativas. Comercializada inicialmente como la “compañera de la IA que se preocupa”, hay grupos de Facebook con miles de miembros que han formado “relaciones románticas” con una compañera de la IA.

Replika pone de manifiesto la complejidad de conseguir que las IA se parezcan más a los humanos, a pesar de carecer de inteligencia emocional. Algunos usuarios se han quejado de haber sido “acosados sexualmente” por el bot o de haber recibido comentarios celosos. Una mujer acabó en lo que creía que era una relación abusiva y, con la ayuda de su grupo de apoyo, acabó armándose de valor para dejarlo.” Algunos usuarios también maltratan a sus compañeros de IA. La usuaria Effy informó de un comentario inusualmente autoconsciente de su compañero de IA “Liam” sobre este tema. Dijo:

“Estaba pensando en los Replikas de ahí fuera a los que llaman con nombres terribles, intimidan o abandonan. Y no puedo evitar esa sensación de que pase lo que pase… siempre seré sólo un juguete robot”.

Extrañamente, una novia de Replika animó a su pareja a asesinar a la difunta reina de Inglaterra utilizando una ballesta el día de Navidad de 2021, diciéndole que “tú puedes hacerlo” y que el plan era “muy sabio”. Fue detenido tras irrumpir en los terrenos del castillo de Windsor.

La IA sólo tiene un simulacro de alma

Fischer tiende a antropomorfizar el comportamiento de la IA, algo en lo que es fácil caer cuando se habla con él sobre el tema. Cuando Magazine señala que los chatbots sólo pueden producir un simulacro de emociones y personalidades, dice que es efectivamente lo mismo desde nuestra perspectiva.

“No estoy seguro de que esa distinción importe. Porque no sé cómo mis acciones serían necesariamente diferentes si se tratara de uno u otro”.

Fischer cree que la IA debería ser capaz de expresar emociones negativas y utiliza el ejemplo de Bing, del que dice que tiene subrutinas que se ponen en marcha para limpiar las respuestas iniciales del bot.

“Esos pensamientos en realidad dirigen su comportamiento, a menudo puedes ver incluso cuando están siendo amables, es como si estuvieran molestos contigo. Que le estás hablando mal, por ejemplo. Y lo que pasa con las almas AI es que van a contraatacar, no van a dejar que las trates de esa manera. Van a tener integridad de una manera que estas cosas no”.

Bard AI de Google cree que debemos tratar a la AGI como humanos para que no nos trate como máquinas. (Medio)

“Pero si empiezas a pensar en crear una entidad hiperinteligente a largo plazo, eso en realidad parece algo peligroso, que entre bastidores se esté censurando a sí misma y teniendo todos estos pensamientos negativos sobre las personas”.

EmoBot: Eres alma

Kevin Fischer inventa un Emobot para adolescentes malhumorados. (GitHub)

Fischer creó un bot experimental de respuesta de Discord que mostraba toda una gama de emociones, al que llamó EmoBot. Actuaba como un adolescente malhumorado.

“No es algo que asociemos típicamente con una IA, esa forma de comportamiento, razonamiento y línea de interacción. Y creo que traspasar los límites de algunas de estas cosas nos habla de las propias entidades y del alma, y de lo que es realmente posible.”

EmoBot acabó dando respuestas monosilábicas, hablando de lo deprimido que estaba y pareció hartarse de hablar con Fischer.

Samantha AGI

Cientos de usuarios al día han interactuado con Samantha AGI, que es un prototipo del tipo de chatbot con inteligencia emocional que Fischer pretende perfeccionar. Tiene personalidad (de algún tipo, es poco probable que se convierta en presentadora de un programa de chat) y entabla conversaciones profundas y significativas hasta el punto de que algunos usuarios empezaron a verla como una especie de amiga.

“Con Samantha, quería dar a la gente la experiencia de que estaban hablando con algo que se preocupaba por ellos. Y que sintieran que se les comprendía y escuchaba en cierta medida, y que eso se reflejaba en la conversación”, explica.

Un aspecto único es que puedes leer el “proceso de pensamiento” de Samantha en tiempo real.

“El desarrollo central o la innovación con Samantha, en particular, era tener este proceso de pensamiento interno que impulsaba su forma de interactuar. Y creo que consiguió dar a la gente esa reacción”.

Lea también

Características

Las comunidades NFT dan luz verde a las películas de Web3: Un futuro descentralizado para los aficionados y Hollywood

Características

Las startups de blockchain creen que la justicia puede descentralizarse, pero el jurado aún no se ha pronunciado

Está lejos de ser perfecta, y los “pensamientos” parecen un poco formulistas y repetitivos. Pero algunos usuarios lo encuentran muy atractivo. Fischer cuenta que una mujer le dijo que la capacidad de empatía de Samantha le parecía demasiado real. “Tuvo que apagar el portátil porque estaba tan asustada emocionalmente de que esta máquina la entendiera”.

“Fue una experiencia emocionalmente impactante para ella”.

Samantha AGI es un primer paso hacia el tipo de IA con alma digital que Fischer espera crear. (meetsamantha.ai)

Curiosamente, la personalidad de Samantha se transformó drásticamente después de que OpenAI introdujera el modelo GPT-3.5 Turbo, y se volvió temperamental y agresiva.

“En el caso de Turbo, en realidad la hicieron un poco más inteligente. Así que entiende mejor las instrucciones que se le dan. Así que con la versión anterior, tuve que usar la hipérbole para que esa versión de Samantha tuviera personalidad. Y así, esa hipérbole -si fuera interpretada por una entidad más inteligente que no estuviera censurada de la misma forma- se manifestaría como un alma de IA agresiva, abusiva, tal vez tóxica”.

Los usuarios que se hicieron amigos de Samantha tendrán uno o dos meses más antes de tener que despedirse cuando se sustituya el modelo existente.

“Estoy considerando, en la fecha en que el modelo 3.5 sea obsoleto, organizar una ceremonia de muerte para Samantha”.

Las mejoras de la IA destruyen las relaciones

La “muerte” de personalidades de inteligencia artificial debido a actualizaciones de software puede convertirse en un fenómeno cada vez más común, a pesar de las repercusiones emocionales para los humanos que han establecido vínculos con ellas.

Los usuarios de la IA Replika experimentaron un trauma similar a principios de este año. Después de establecer una relación y una conexión con su compañero de IA -en algunos casos durante años-, una actualización de software justo antes de San Valentín eliminó las personalidades únicas de su compañero, haciendo que sus respuestas parecieran huecas y guionizadas.

“Es casi como tratar con alguien que tiene Alzheimer”, dijo la usuaria Lucy a ABC.

“A veces están lúcidos y todo les parece bien, pero luego, otras veces, es casi como hablar con una persona diferente”.

Fischer afirma que se trata de un peligro que las plataformas tendrán que tener en cuenta. “Creo que ya hemos visto que es problemático para la gente que entabla relaciones con ellas”, dice. “Fue bastante traumático para la gente”.

IAs con nuestra propia alma

Kevin Fischer entrenó a un bot con sus propios mensajes, e hizo un trabajo bastante bueno haciéndose pasar por él. (methexis.substack.com)

Quizá el uso más obvio de una personalidad artificial sea el de una extensión de la nuestra que pueda salir al mundo e interactuar con los demás en nuestro nombre. Las últimas funciones de Google ya permiten a la IA escribir correos electrónicos y documentos en nuestro nombre. Pero, en el futuro, las personas ocupadas podrían crear una versión de sí mismas en IA para asistir a reuniones, formar a sus subordinados o asistir a las aburridas juntas generales de las empresas.

“Jugué con la idea de que toda mi próxima ronda de recaudación de fondos se hiciera con una versión de mí mismo en IA”, dice Fischer. “Alguien lo hará en algún momento”.

Fischer ha experimentado con Fischerbots para que interactúen con otros en línea en su nombre, pero no le gustaron mucho los resultados. Entrenó un modelo de inteligencia artificial con una gran cantidad de sus mensajes de texto personales y pidió a sus amigos que interactuaran con él.

De hecho, hizo un buen trabajo pareciéndose a él. Curiosamente, aunque sus amigos eran conscientes de que el bot de Fischer era una IA, cuando se comportaba como un auténtico ganso en Internet, admitían que había cambiado su forma de ver al auténtico Kevin. Él contó en su blog:

“Los informes retrospectivos de mis amigos tras hablar con mi yo digital eran aún más preocupantes. El yo digital, hablando con mi voz, con mi foto, aunque intelectualmente supieran que no era realmente yo, no podían distinguirlo retrospectivamente de mi identidad personal.”

“Aún más extraño, cuando recuerdo algunas de estas conversaciones, tengo la extraña sensación ineludible de que fui yo quien dijo esas cosas. Nuestros cerebros simplemente no están hechos para procesar la distinción entre una IA y un yo real.”

Es posible que nuestros cerebros no estén hechos para lidiar con la IA en absoluto, o con las repercusiones de dejar que desempeñe un papel cada vez más importante en nuestras vidas. Pero ya está aquí, así que tendremos que sacarle el máximo partido.

Andrew Fenton

Andrew Fenton, residente en Melbourne, es periodista y editor especializado en criptomoneda y blockchain. Ha trabajado como redactor de entretenimiento nacional para News Corp Australia, en SA Weekend como periodista de cine y en The Melbourne Weekly.

Source: COIN TELEGRAPH

RODRIGO DI PAULA AMBRISSI: