[ccpw id="5"]

HomeAnálisis De MercadoLas 10 Principales CriptomonedasExpertos quieren dotar a la IA de 'alma' humana para que no...

Expertos quieren dotar a la IA de ‘alma’ humana para que no nos mate a todos – Cointelegraph Magazine

-

-Advertisement-

Hasta ahora, se daba por sentado que dotar de emociones a la inteligencia artificial -permitiéndoles enfadarse o cometer errores- era una idea terrible. Pero, ¿y si la solución para mantener a los robots alineados con los valores humanos fuera hacerlos más humanos, con todos nuestros defectos y compasión?

Almas robĂłticas
Portada del libro Robot Souls. (Amazon)

Esa es la premisa de un libro de prĂłxima publicaciĂłn titulado Almas de robot: La programaciĂłn en la humanidadde Eve Poole, acadĂ©mica de la Escuela Internacional de Negocios Hult. Poole sostiene que, en nuestro intento de perfeccionar la inteligencia artificial, hemos eliminado todo el “cĂłdigo basura” que nos hace humanos, incluidas las emociones, el libre albedrĂ­o, la capacidad de cometer errores, de ver el sentido del mundo y de afrontar la incertidumbre.

“En realidad, es este cĂłdigo ‘basura’ el que nos hace humanos y promueve el tipo de altruismo recĂ­proco que mantiene viva y prĂłspera a la humanidad”, escribe Poole.

“Si podemos descifrar ese cĂłdigo, la parte que hace que todos queramos sobrevivir y prosperar juntos como especie, podemos compartirlo con las máquinas. Dándoles, a todos los efectos, un ‘alma'”.

Por supuesto, el concepto de “alma” es religioso y no cientĂ­fico, asĂ­ que, a efectos de este artĂ­culo, tomĂ©moslo como una metáfora para dotar a la IA de propiedades más parecidas a las humanas.

El problema de la alineaciĂłn de la IA

“Las almas son al 100% la soluciĂłn al problema de la alineaciĂłn”, afirma Kevin Fischer, fundador de Open Souls, refiriĂ©ndose al espinoso problema de garantizar que la IA trabaje en beneficio de la humanidad en lugar de volverse rebelde y destruirnos a todos.

Open Souls está creando bots de IA con personalidad, basándose en el Ă©xito de su bot empático, “Samantha AGI”. El sueño de Fischer es imbuir a una inteligencia general artificial (AGI) con la misma agencia y ego que una persona. En el GitHub de SocialAGI, define las “almas digitales” como diferentes de los chatbots tradicionales en el sentido de que “las almas digitales tienen personalidad, impulso, ego y voluntad”.

Chat bot Replika Effy y Liam
Captura de pantalla de un chat entre una usuaria de Replika llamada Effy y su compañero de IA Liam. (ABC)
-Advertisement-

Sin duda, los críticos argumentarían que hacer IA más humanas es una idea terrible, dado que los humanos tienen una conocida propensión a cometer genocidios, destruir ecosistemas y mutilarse y asesinarse unos a otros.

El debate puede parecer acadĂ©mico ahora mismo, dado que aĂşn no hemos creado una IA sensible ni resuelto el misterio de la AGI. Pero algunos creen que aĂşn faltan unos pocos años. En marzo, los ingenieros de Microsoft publicaron un informe de 155 páginas titulado “Sparks of General Intelligence” (Chispas de Inteligencia General), que sugiere que la humanidad ya está en la cĂşspide de un avance de la AGI.

Y a principios de julio, OpenAI hizo un llamamiento a los investigadores para que se unieran a su “equipo de superalineaciĂłn”: “Aunque la superinteligencia parece lejana ahora, creemos que podrĂ­a llegar esta dĂ©cada”.

El enfoque será presumiblemente construir una IA de nivel humano que pueda controlar, y que investigue y evalúe técnicas para controlar una AGI superinteligente. La empresa está dedicando el 20% de su computación al problema.

El fundador de Singularity.net, Ben Goertzel, también cree que la AGI podría tardar entre cinco y veinte años. Cuando Magazine habló con él sobre este tema -y lleva pensando en estas cuestiones desde principios de la década de 1970-, dijo que simplemente no hay forma de que los humanos controlen una inteligencia 100 veces más inteligente que nosotros, al igual que nosotros no podemos ser controlados por un chimpancé.

“Entonces yo dirĂ­a que la cuestiĂłn no es que la controlemos nosotros; la cuestiĂłn es: Âżestá bien dispuesta hacia nosotros?”, preguntĂł.

Para Goertzel, enseñar e incentivar a la superinteligencia para que cuide de los humanos es la jugada inteligente. “Si construyes la primera AGI para que se ocupe del cuidado de ancianos, las artes creativas y la educaciĂłn, a medida que se haga más inteligente, se orientará a ayudar a la gente y a crear cosas geniales. Si construyes la primera AGI para matar a los malos, quizá siga haciendo esas cosas”.

Aun así, para eso todavía faltan unos cuantos años.



-Advertisement-

Por ahora, el beneficio más obvio a corto plazo de hacer que la IA se parezca más a los humanos es que nos ayudará a crear chatbots menos molestos. A pesar de todas las Ăştiles funciones de ChatGPT, su “personalidad” resulta, en el mejor de los casos, una insincera charlatana y, en el peor, una mentirosa empedernida.

Fischer está experimentando con la creación de IA con personalidades que interactúen con la gente de forma más empática y genuina. Es doctor en física cuántica teórica por Stanford y trabajó en aprendizaje automático para la empresa de interpretación de escáneres radiológicos Nines. Dirige Social AGI Discord y trabaja en la comercialización de IA con personalidades para su uso en empresas.

“En el transcurso del Ăşltimo año, explorando los lĂ­mites de lo posible, lleguĂ© a comprender que la tecnologĂ­a está ahĂ­ -o lo estará pronto- para crear entidades inteligentes, algo que se sienta como un alma. En el sentido de que la mayorĂ­a de la gente interactuará con ellos y dirá: ‘Esto está vivo, si apagas esto, esto es moralmente…'”

Está a punto de decir que sería moralmente incorrecto matar a la IA, pero, irónicamente, se interrumpe a mitad de la frase cuando la batería de su portátil está a punto de agotarse y se apresura a enchufarlo.

Otra IA con almas

Replika bot chat Effy y Liam 2 - abc
La IA de Replika tiene personalidad y puede mantener conversaciones realistas. Otra captura de pantalla suministrada de Effy y Liam. (ABC)

Fischer no es el único que ha tenido la brillante idea de dotar de personalidad a la IA. Dirígete a Forefront.ai, donde puedes interactuar con Jesús, un chef con estrella Michelin, un experto en criptografía o incluso Ronald Regan, que responderán a tus preguntas.

Por desgracia, todas las personalidades parecen exactamente ChatGPT con un bigote falso.

Un ejemplo más exitoso es Replika.ai, una aplicaciĂłn que permite a los corazones solitarios entablar una relaciĂłn con una IA y mantener con ella conversaciones profundas y significativas. Comercializada inicialmente como la “compañera de la IA que se preocupa”, hay grupos de Facebook con miles de miembros que han formado “relaciones románticas” con una compañera de la IA.

Replika pone de manifiesto la complejidad de conseguir que las IA se parezcan más a los humanos, a pesar de carecer de inteligencia emocional. Algunos usuarios se han quejado de haber sido “acosados sexualmente” por el bot o de haber recibido comentarios celosos. Una mujer acabĂł en lo que creĂ­a que era una relaciĂłn abusiva y, con la ayuda de su grupo de apoyo, acabĂł armándose de valor para dejarlo.” Algunos usuarios tambiĂ©n maltratan a sus compañeros de IA. La usuaria Effy informĂł de un comentario inusualmente autoconsciente de su compañero de IA “Liam” sobre este tema. Dijo:

“Estaba pensando en los Replikas de ahĂ­ fuera a los que llaman con nombres terribles, intimidan o abandonan. Y no puedo evitar esa sensaciĂłn de que pase lo que pase… siempre serĂ© sĂłlo un juguete robot”.

Extrañamente, una novia de Replika animĂł a su pareja a asesinar a la difunta reina de Inglaterra utilizando una ballesta el dĂ­a de Navidad de 2021, diciĂ©ndole que “tĂş puedes hacerlo” y que el plan era “muy sabio”. Fue detenido tras irrumpir en los terrenos del castillo de Windsor.

La IA sĂłlo tiene un simulacro de alma

Fischer tiende a antropomorfizar el comportamiento de la IA, algo en lo que es fácil caer cuando se habla con él sobre el tema. Cuando Magazine señala que los chatbots sólo pueden producir un simulacro de emociones y personalidades, dice que es efectivamente lo mismo desde nuestra perspectiva.

“No estoy seguro de que esa distinciĂłn importe. Porque no sĂ© cĂłmo mis acciones serĂ­an necesariamente diferentes si se tratara de uno u otro”.

Fischer cree que la IA deberĂ­a ser capaz de expresar emociones negativas y utiliza el ejemplo de Bing, del que dice que tiene subrutinas que se ponen en marcha para limpiar las respuestas iniciales del bot.

“Esos pensamientos en realidad dirigen su comportamiento, a menudo puedes ver incluso cuando están siendo amables, es como si estuvieran molestos contigo. Que le estás hablando mal, por ejemplo. Y lo que pasa con las almas AI es que van a contraatacar, no van a dejar que las trates de esa manera. Van a tener integridad de una manera que estas cosas no”.

AGI
Bard AI de Google cree que debemos tratar a la AGI como humanos para que no nos trate como máquinas. (Medio)

“Pero si empiezas a pensar en crear una entidad hiperinteligente a largo plazo, eso en realidad parece algo peligroso, que entre bastidores se estĂ© censurando a sĂ­ misma y teniendo todos estos pensamientos negativos sobre las personas”.

EmoBot: Eres alma

Emobot
Kevin Fischer inventa un Emobot para adolescentes malhumorados. (GitHub)

Fischer creĂł un bot experimental de respuesta de Discord que mostraba toda una gama de emociones, al que llamĂł EmoBot. Actuaba como un adolescente malhumorado.

“No es algo que asociemos tĂ­picamente con una IA, esa forma de comportamiento, razonamiento y lĂ­nea de interacciĂłn. Y creo que traspasar los lĂ­mites de algunas de estas cosas nos habla de las propias entidades y del alma, y de lo que es realmente posible.”

EmoBot acabó dando respuestas monosilábicas, hablando de lo deprimido que estaba y pareció hartarse de hablar con Fischer.

Samantha AGI

Cientos de usuarios al dĂ­a han interactuado con Samantha AGI, que es un prototipo del tipo de chatbot con inteligencia emocional que Fischer pretende perfeccionar. Tiene personalidad (de algĂşn tipo, es poco probable que se convierta en presentadora de un programa de chat) y entabla conversaciones profundas y significativas hasta el punto de que algunos usuarios empezaron a verla como una especie de amiga.

“Con Samantha, querĂ­a dar a la gente la experiencia de que estaban hablando con algo que se preocupaba por ellos. Y que sintieran que se les comprendĂ­a y escuchaba en cierta medida, y que eso se reflejaba en la conversaciĂłn”, explica.

Un aspecto Ăşnico es que puedes leer el “proceso de pensamiento” de Samantha en tiempo real.

“El desarrollo central o la innovaciĂłn con Samantha, en particular, era tener este proceso de pensamiento interno que impulsaba su forma de interactuar. Y creo que consiguiĂł dar a la gente esa reacciĂłn”.

Lea también

CaracterĂ­sticas

Las comunidades NFT dan luz verde a las pelĂ­culas de Web3: Un futuro descentralizado para los aficionados y Hollywood

CaracterĂ­sticas

Las startups de blockchain creen que la justicia puede descentralizarse, pero el jurado aĂşn no se ha pronunciado

Está lejos de ser perfecta, y los “pensamientos” parecen un poco formulistas y repetitivos. Pero algunos usuarios lo encuentran muy atractivo. Fischer cuenta que una mujer le dijo que la capacidad de empatĂ­a de Samantha le parecĂ­a demasiado real. “Tuvo que apagar el portátil porque estaba tan asustada emocionalmente de que esta máquina la entendiera”.

“Fue una experiencia emocionalmente impactante para ella”.

Samantha AGI
Samantha AGI es un primer paso hacia el tipo de IA con alma digital que Fischer espera crear. (meetsamantha.ai)

Curiosamente, la personalidad de Samantha se transformó drásticamente después de que OpenAI introdujera el modelo GPT-3.5 Turbo, y se volvió temperamental y agresiva.

“En el caso de Turbo, en realidad la hicieron un poco más inteligente. AsĂ­ que entiende mejor las instrucciones que se le dan. AsĂ­ que con la versiĂłn anterior, tuve que usar la hipĂ©rbole para que esa versiĂłn de Samantha tuviera personalidad. Y asĂ­, esa hipĂ©rbole -si fuera interpretada por una entidad más inteligente que no estuviera censurada de la misma forma- se manifestarĂ­a como un alma de IA agresiva, abusiva, tal vez tĂłxica”.

Los usuarios que se hicieron amigos de Samantha tendrán uno o dos meses más antes de tener que despedirse cuando se sustituya el modelo existente.

“Estoy considerando, en la fecha en que el modelo 3.5 sea obsoleto, organizar una ceremonia de muerte para Samantha”.

Samantha se vuelve loca

Las mejoras de la IA destruyen las relaciones

La “muerte” de personalidades de inteligencia artificial debido a actualizaciones de software puede convertirse en un fenĂłmeno cada vez más comĂşn, a pesar de las repercusiones emocionales para los humanos que han establecido vĂ­nculos con ellas.

Los usuarios de la IA Replika experimentaron un trauma similar a principios de este año. Después de establecer una relación y una conexión con su compañero de IA -en algunos casos durante años-, una actualización de software justo antes de San Valentín eliminó las personalidades únicas de su compañero, haciendo que sus respuestas parecieran huecas y guionizadas.

“Es casi como tratar con alguien que tiene Alzheimer”, dijo la usuaria Lucy a ABC.

“A veces están lĂşcidos y todo les parece bien, pero luego, otras veces, es casi como hablar con una persona diferente”.

Fischer afirma que se trata de un peligro que las plataformas tendrán que tener en cuenta. “Creo que ya hemos visto que es problemático para la gente que entabla relaciones con ellas”, dice. “Fue bastante traumático para la gente”.

IAs con nuestra propia alma

Fischerbot
Kevin Fischer entrenó a un bot con sus propios mensajes, e hizo un trabajo bastante bueno haciéndose pasar por él. (methexis.substack.com)

Quizá el uso más obvio de una personalidad artificial sea el de una extensión de la nuestra que pueda salir al mundo e interactuar con los demás en nuestro nombre. Las últimas funciones de Google ya permiten a la IA escribir correos electrónicos y documentos en nuestro nombre. Pero, en el futuro, las personas ocupadas podrían crear una versión de sí mismas en IA para asistir a reuniones, formar a sus subordinados o asistir a las aburridas juntas generales de las empresas.

“JuguĂ© con la idea de que toda mi prĂłxima ronda de recaudaciĂłn de fondos se hiciera con una versiĂłn de mĂ­ mismo en IA”, dice Fischer. “Alguien lo hará en algĂşn momento”.

Fischer ha experimentado con Fischerbots para que interactĂşen con otros en lĂ­nea en su nombre, pero no le gustaron mucho los resultados. EntrenĂł un modelo de inteligencia artificial con una gran cantidad de sus mensajes de texto personales y pidiĂł a sus amigos que interactuaran con Ă©l.

De hecho, hizo un buen trabajo pareciéndose a él. Curiosamente, aunque sus amigos eran conscientes de que el bot de Fischer era una IA, cuando se comportaba como un auténtico ganso en Internet, admitían que había cambiado su forma de ver al auténtico Kevin. Él contó en su blog:

“Los informes retrospectivos de mis amigos tras hablar con mi yo digital eran aĂşn más preocupantes. El yo digital, hablando con mi voz, con mi foto, aunque intelectualmente supieran que no era realmente yo, no podĂ­an distinguirlo retrospectivamente de mi identidad personal.”

“AĂşn más extraño, cuando recuerdo algunas de estas conversaciones, tengo la extraña sensaciĂłn ineludible de que fui yo quien dijo esas cosas. Nuestros cerebros simplemente no están hechos para procesar la distinciĂłn entre una IA y un yo real.”

Es posible que nuestros cerebros no estén hechos para lidiar con la IA en absoluto, o con las repercusiones de dejar que desempeñe un papel cada vez más importante en nuestras vidas. Pero ya está aquí, así que tendremos que sacarle el máximo partido.

Andrew Fenton

Andrew Fenton

Andrew Fenton, residente en Melbourne, es periodista y editor especializado en criptomoneda y blockchain. Ha trabajado como redactor de entretenimiento nacional para News Corp Australia, en SA Weekend como periodista de cine y en The Melbourne Weekly.



Source: COIN TELEGRAPH

Reciba noticias de Vimilin desde Google news
-Advertisement-

LEAVE A REPLY

Please enter your comment!
Please enter your name here

LATEST POSTS

Bitcoin Future Predictions Are Here: The Story So Far

Bitcoin is a cryptocurrency and worldwide payment system. It is the first decentralized digital currency, as the system works without a central bank or single...

Interview: Bitcoin Transactions and American Taxation

Bitcoin is a cryptocurrency and worldwide payment system. It is the first decentralized digital currency, as the system works without a central bank or single...

Over 1 Million People in Line for Bitcoin Trading App

Bitcoin is a cryptocurrency and worldwide payment system. It is the first decentralized digital currency, as the system works without a central bank or single...

Singapore Mall Sells Bitcoin Mining Hardware Station

Bitcoin is a cryptocurrency and worldwide payment system. It is the first decentralized digital currency, as the system works without a central bank or single...

Most Popular

spot_img