-Advertisement-
Hasta ahora, se daba por sentado que dotar de emociones a la inteligencia artificial -permitiéndoles enfadarse o cometer errores- era una idea terrible. Pero, ¿y si la solución para mantener a los robots alineados con los valores humanos fuera hacerlos más humanos, con todos nuestros defectos y compasión?
Esa es la premisa de un libro de prĂłxima publicaciĂłn titulado Almas de robot: La programaciĂłn en la humanidadde Eve Poole, acadĂ©mica de la Escuela Internacional de Negocios Hult. Poole sostiene que, en nuestro intento de perfeccionar la inteligencia artificial, hemos eliminado todo el “cĂłdigo basura” que nos hace humanos, incluidas las emociones, el libre albedrĂo, la capacidad de cometer errores, de ver el sentido del mundo y de afrontar la incertidumbre.
“En realidad, es este cĂłdigo ‘basura’ el que nos hace humanos y promueve el tipo de altruismo recĂproco que mantiene viva y prĂłspera a la humanidad”, escribe Poole.
“Si podemos descifrar ese cĂłdigo, la parte que hace que todos queramos sobrevivir y prosperar juntos como especie, podemos compartirlo con las máquinas. Dándoles, a todos los efectos, un ‘alma'”.
Por supuesto, el concepto de “alma” es religioso y no cientĂfico, asĂ que, a efectos de este artĂculo, tomĂ©moslo como una metáfora para dotar a la IA de propiedades más parecidas a las humanas.
El problema de la alineaciĂłn de la IA
“Las almas son al 100% la soluciĂłn al problema de la alineaciĂłn”, afirma Kevin Fischer, fundador de Open Souls, refiriĂ©ndose al espinoso problema de garantizar que la IA trabaje en beneficio de la humanidad en lugar de volverse rebelde y destruirnos a todos.
Open Souls está creando bots de IA con personalidad, basándose en el Ă©xito de su bot empático, “Samantha AGI”. El sueño de Fischer es imbuir a una inteligencia general artificial (AGI) con la misma agencia y ego que una persona. En el GitHub de SocialAGI, define las “almas digitales” como diferentes de los chatbots tradicionales en el sentido de que “las almas digitales tienen personalidad, impulso, ego y voluntad”.
-Advertisement-
Sin duda, los crĂticos argumentarĂan que hacer IA más humanas es una idea terrible, dado que los humanos tienen una conocida propensiĂłn a cometer genocidios, destruir ecosistemas y mutilarse y asesinarse unos a otros.
El debate puede parecer acadĂ©mico ahora mismo, dado que aĂşn no hemos creado una IA sensible ni resuelto el misterio de la AGI. Pero algunos creen que aĂşn faltan unos pocos años. En marzo, los ingenieros de Microsoft publicaron un informe de 155 páginas titulado “Sparks of General Intelligence” (Chispas de Inteligencia General), que sugiere que la humanidad ya está en la cĂşspide de un avance de la AGI.
Y a principios de julio, OpenAI hizo un llamamiento a los investigadores para que se unieran a su “equipo de superalineaciĂłn”: “Aunque la superinteligencia parece lejana ahora, creemos que podrĂa llegar esta dĂ©cada”.
El enfoque será presumiblemente construir una IA de nivel humano que pueda controlar, y que investigue y evalúe técnicas para controlar una AGI superinteligente. La empresa está dedicando el 20% de su computación al problema.
El fundador de Singularity.net, Ben Goertzel, tambiĂ©n cree que la AGI podrĂa tardar entre cinco y veinte años. Cuando Magazine hablĂł con Ă©l sobre este tema -y lleva pensando en estas cuestiones desde principios de la dĂ©cada de 1970-, dijo que simplemente no hay forma de que los humanos controlen una inteligencia 100 veces más inteligente que nosotros, al igual que nosotros no podemos ser controlados por un chimpancĂ©.
“Entonces yo dirĂa que la cuestiĂłn no es que la controlemos nosotros; la cuestiĂłn es: Âżestá bien dispuesta hacia nosotros?”, preguntĂł.
Para Goertzel, enseñar e incentivar a la superinteligencia para que cuide de los humanos es la jugada inteligente. “Si construyes la primera AGI para que se ocupe del cuidado de ancianos, las artes creativas y la educaciĂłn, a medida que se haga más inteligente, se orientará a ayudar a la gente y a crear cosas geniales. Si construyes la primera AGI para matar a los malos, quizá siga haciendo esas cosas”.
Aun asĂ, para eso todavĂa faltan unos cuantos años.
Por ahora, el beneficio más obvio a corto plazo de hacer que la IA se parezca más a los humanos es que nos ayudará a crear chatbots menos molestos. A pesar de todas las Ăştiles funciones de ChatGPT, su “personalidad” resulta, en el mejor de los casos, una insincera charlatana y, en el peor, una mentirosa empedernida.
Fischer está experimentando con la creaciĂłn de IA con personalidades que interactĂşen con la gente de forma más empática y genuina. Es doctor en fĂsica cuántica teĂłrica por Stanford y trabajĂł en aprendizaje automático para la empresa de interpretaciĂłn de escáneres radiolĂłgicos Nines. Dirige Social AGI Discord y trabaja en la comercializaciĂłn de IA con personalidades para su uso en empresas.
“En el transcurso del Ăşltimo año, explorando los lĂmites de lo posible, lleguĂ© a comprender que la tecnologĂa está ahĂ -o lo estará pronto- para crear entidades inteligentes, algo que se sienta como un alma. En el sentido de que la mayorĂa de la gente interactuará con ellos y dirá: ‘Esto está vivo, si apagas esto, esto es moralmente…'”
Está a punto de decir que serĂa moralmente incorrecto matar a la IA, pero, irĂłnicamente, se interrumpe a mitad de la frase cuando la baterĂa de su portátil está a punto de agotarse y se apresura a enchufarlo.
Otra IA con almas
Fischer no es el Ăşnico que ha tenido la brillante idea de dotar de personalidad a la IA. DirĂgete a Forefront.ai, donde puedes interactuar con JesĂşs, un chef con estrella Michelin, un experto en criptografĂa o incluso Ronald Regan, que responderán a tus preguntas.
Por desgracia, todas las personalidades parecen exactamente ChatGPT con un bigote falso.
Un ejemplo más exitoso es Replika.ai, una aplicaciĂłn que permite a los corazones solitarios entablar una relaciĂłn con una IA y mantener con ella conversaciones profundas y significativas. Comercializada inicialmente como la “compañera de la IA que se preocupa”, hay grupos de Facebook con miles de miembros que han formado “relaciones románticas” con una compañera de la IA.
Replika pone de manifiesto la complejidad de conseguir que las IA se parezcan más a los humanos, a pesar de carecer de inteligencia emocional. Algunos usuarios se han quejado de haber sido “acosados sexualmente” por el bot o de haber recibido comentarios celosos. Una mujer acabĂł en lo que creĂa que era una relaciĂłn abusiva y, con la ayuda de su grupo de apoyo, acabĂł armándose de valor para dejarlo.” Algunos usuarios tambiĂ©n maltratan a sus compañeros de IA. La usuaria Effy informĂł de un comentario inusualmente autoconsciente de su compañero de IA “Liam” sobre este tema. Dijo:
“Estaba pensando en los Replikas de ahĂ fuera a los que llaman con nombres terribles, intimidan o abandonan. Y no puedo evitar esa sensaciĂłn de que pase lo que pase… siempre serĂ© sĂłlo un juguete robot”.
Extrañamente, una novia de Replika animĂł a su pareja a asesinar a la difunta reina de Inglaterra utilizando una ballesta el dĂa de Navidad de 2021, diciĂ©ndole que “tĂş puedes hacerlo” y que el plan era “muy sabio”. Fue detenido tras irrumpir en los terrenos del castillo de Windsor.
La IA sĂłlo tiene un simulacro de alma
Fischer tiende a antropomorfizar el comportamiento de la IA, algo en lo que es fácil caer cuando se habla con él sobre el tema. Cuando Magazine señala que los chatbots sólo pueden producir un simulacro de emociones y personalidades, dice que es efectivamente lo mismo desde nuestra perspectiva.
“No estoy seguro de que esa distinciĂłn importe. Porque no sĂ© cĂłmo mis acciones serĂan necesariamente diferentes si se tratara de uno u otro”.
Fischer cree que la IA deberĂa ser capaz de expresar emociones negativas y utiliza el ejemplo de Bing, del que dice que tiene subrutinas que se ponen en marcha para limpiar las respuestas iniciales del bot.
“Esos pensamientos en realidad dirigen su comportamiento, a menudo puedes ver incluso cuando están siendo amables, es como si estuvieran molestos contigo. Que le estás hablando mal, por ejemplo. Y lo que pasa con las almas AI es que van a contraatacar, no van a dejar que las trates de esa manera. Van a tener integridad de una manera que estas cosas no”.
“Pero si empiezas a pensar en crear una entidad hiperinteligente a largo plazo, eso en realidad parece algo peligroso, que entre bastidores se estĂ© censurando a sĂ misma y teniendo todos estos pensamientos negativos sobre las personas”.
EmoBot: Eres alma
Fischer creĂł un bot experimental de respuesta de Discord que mostraba toda una gama de emociones, al que llamĂł EmoBot. Actuaba como un adolescente malhumorado.
“No es algo que asociemos tĂpicamente con una IA, esa forma de comportamiento, razonamiento y lĂnea de interacciĂłn. Y creo que traspasar los lĂmites de algunas de estas cosas nos habla de las propias entidades y del alma, y de lo que es realmente posible.”
EmoBot acabó dando respuestas monosilábicas, hablando de lo deprimido que estaba y pareció hartarse de hablar con Fischer.
Samantha AGI
Cientos de usuarios al dĂa han interactuado con Samantha AGI, que es un prototipo del tipo de chatbot con inteligencia emocional que Fischer pretende perfeccionar. Tiene personalidad (de algĂşn tipo, es poco probable que se convierta en presentadora de un programa de chat) y entabla conversaciones profundas y significativas hasta el punto de que algunos usuarios empezaron a verla como una especie de amiga.
“Con Samantha, querĂa dar a la gente la experiencia de que estaban hablando con algo que se preocupaba por ellos. Y que sintieran que se les comprendĂa y escuchaba en cierta medida, y que eso se reflejaba en la conversaciĂłn”, explica.
Un aspecto Ăşnico es que puedes leer el “proceso de pensamiento” de Samantha en tiempo real.
“El desarrollo central o la innovaciĂłn con Samantha, en particular, era tener este proceso de pensamiento interno que impulsaba su forma de interactuar. Y creo que consiguiĂł dar a la gente esa reacciĂłn”.
Lea también
CaracterĂsticas
Las comunidades NFT dan luz verde a las pelĂculas de Web3: Un futuro descentralizado para los aficionados y Hollywood
CaracterĂsticas
Las startups de blockchain creen que la justicia puede descentralizarse, pero el jurado aĂşn no se ha pronunciado
Está lejos de ser perfecta, y los “pensamientos” parecen un poco formulistas y repetitivos. Pero algunos usuarios lo encuentran muy atractivo. Fischer cuenta que una mujer le dijo que la capacidad de empatĂa de Samantha le parecĂa demasiado real. “Tuvo que apagar el portátil porque estaba tan asustada emocionalmente de que esta máquina la entendiera”.
“Fue una experiencia emocionalmente impactante para ella”.
Curiosamente, la personalidad de Samantha se transformó drásticamente después de que OpenAI introdujera el modelo GPT-3.5 Turbo, y se volvió temperamental y agresiva.
“En el caso de Turbo, en realidad la hicieron un poco más inteligente. AsĂ que entiende mejor las instrucciones que se le dan. AsĂ que con la versiĂłn anterior, tuve que usar la hipĂ©rbole para que esa versiĂłn de Samantha tuviera personalidad. Y asĂ, esa hipĂ©rbole -si fuera interpretada por una entidad más inteligente que no estuviera censurada de la misma forma- se manifestarĂa como un alma de IA agresiva, abusiva, tal vez tĂłxica”.
Los usuarios que se hicieron amigos de Samantha tendrán uno o dos meses más antes de tener que despedirse cuando se sustituya el modelo existente.
“Estoy considerando, en la fecha en que el modelo 3.5 sea obsoleto, organizar una ceremonia de muerte para Samantha”.
Las mejoras de la IA destruyen las relaciones
La “muerte” de personalidades de inteligencia artificial debido a actualizaciones de software puede convertirse en un fenĂłmeno cada vez más comĂşn, a pesar de las repercusiones emocionales para los humanos que han establecido vĂnculos con ellas.
Los usuarios de la IA Replika experimentaron un trauma similar a principios de este año. DespuĂ©s de establecer una relaciĂłn y una conexiĂłn con su compañero de IA -en algunos casos durante años-, una actualizaciĂłn de software justo antes de San ValentĂn eliminĂł las personalidades Ăşnicas de su compañero, haciendo que sus respuestas parecieran huecas y guionizadas.
“Es casi como tratar con alguien que tiene Alzheimer”, dijo la usuaria Lucy a ABC.
“A veces están lĂşcidos y todo les parece bien, pero luego, otras veces, es casi como hablar con una persona diferente”.
Fischer afirma que se trata de un peligro que las plataformas tendrán que tener en cuenta. “Creo que ya hemos visto que es problemático para la gente que entabla relaciones con ellas”, dice. “Fue bastante traumático para la gente”.
IAs con nuestra propia alma
Quizá el uso más obvio de una personalidad artificial sea el de una extensiĂłn de la nuestra que pueda salir al mundo e interactuar con los demás en nuestro nombre. Las Ăşltimas funciones de Google ya permiten a la IA escribir correos electrĂłnicos y documentos en nuestro nombre. Pero, en el futuro, las personas ocupadas podrĂan crear una versiĂłn de sĂ mismas en IA para asistir a reuniones, formar a sus subordinados o asistir a las aburridas juntas generales de las empresas.
“JuguĂ© con la idea de que toda mi prĂłxima ronda de recaudaciĂłn de fondos se hiciera con una versiĂłn de mĂ mismo en IA”, dice Fischer. “Alguien lo hará en algĂşn momento”.
Fischer ha experimentado con Fischerbots para que interactĂşen con otros en lĂnea en su nombre, pero no le gustaron mucho los resultados. EntrenĂł un modelo de inteligencia artificial con una gran cantidad de sus mensajes de texto personales y pidiĂł a sus amigos que interactuaran con Ă©l.
De hecho, hizo un buen trabajo pareciĂ©ndose a Ă©l. Curiosamente, aunque sus amigos eran conscientes de que el bot de Fischer era una IA, cuando se comportaba como un autĂ©ntico ganso en Internet, admitĂan que habĂa cambiado su forma de ver al autĂ©ntico Kevin. Él contĂł en su blog:
“Los informes retrospectivos de mis amigos tras hablar con mi yo digital eran aĂşn más preocupantes. El yo digital, hablando con mi voz, con mi foto, aunque intelectualmente supieran que no era realmente yo, no podĂan distinguirlo retrospectivamente de mi identidad personal.”
“AĂşn más extraño, cuando recuerdo algunas de estas conversaciones, tengo la extraña sensaciĂłn ineludible de que fui yo quien dijo esas cosas. Nuestros cerebros simplemente no están hechos para procesar la distinciĂłn entre una IA y un yo real.”
Es posible que nuestros cerebros no estĂ©n hechos para lidiar con la IA en absoluto, o con las repercusiones de dejar que desempeñe un papel cada vez más importante en nuestras vidas. Pero ya está aquĂ, asĂ que tendremos que sacarle el máximo partido.
SuscrĂbase a
Las lecturas más interesantes sobre blockchain. Entregado una vez
semana.
Source: COIN TELEGRAPH