-Advertisement-
Mientras Elon Musk y otros siguen haciendo sonar la alarma sobre los peligros potenciales de la inteligencia artificial, un dúo improbable formado por un científico de datos y un filósofo político se está uniendo para utilizar la IA con un propósito diferente en mente: salvar las divisiones políticas cada vez más marcadas de la sociedad.
El proyecto surgió de la investigación de David Rozado, profesor de Te Pūkenga, el Instituto de Habilidades y Tecnología de Nueva Zelanda, cuyo reciente trabajo ha llamado la atención sobre el sesgo político en ChatGPT y el potencial de dicho sesgo en otros sistemas de IA.
Rozado descubrió que en 14 de 15 pruebas de orientación política las respuestas de ChatGPT, un producto de la empresa OpenAI, daban puntos de vista de izquierdas. Al mismo tiempo, sin embargo, la herramienta de procesamiento del lenguaje de IA negó tener ningún sesgo u orientación política, manteniendo que se limitaba a proporcionar información objetiva y precisa a los usuarios.
“El sistema marcaría como odiosos comentarios sobre ciertos grupos pero no sobre otros”, dijo Rozado a Fox News Digital, señalando por ejemplo que el sistema diría que es odioso llamar deshonestas a las mujeres pero no a los hombres. También ha descrito cómo ChatGPT es más permisivo con los comentarios negativos sobre conservadores y republicanos que con los mismos comentarios sobre liberales y demócratas.

Primer plano del icono del logotipo de la aplicación de chatbot de inteligencia artificial ChatGPT en la pantalla de un teléfono móvil. Rodeado de los iconos de las aplicaciones Twitter, Chrome, Zoom, Telegram, Teams, Edge y Meet. (iStock)
UN PROMOTOR CREA UNA AI A FAVOR DE LA PRIMERA ENMIENDA PARA CONTRARRESTAR LAS “MOTIVACIONES POLÍTICAS” DE CHATGPT
En respuesta a esta aparente parcialidad, Rozado descubrió que podía “afinar” un modelo de lenguaje de IA similar a ChatGPT por sólo 300 dólares gastados en computación en la nube, de modo que diera sistemáticamente respuestas favorables a la derecha a preguntas con connotaciones políticas. Rozado bautizó el sistema como RightWingGPT, señalando los peligros de las “IA alineadas políticamente” por su potencial para polarizar aún más a la sociedad.
La investigación de Rozado llamó la atención de Steve McIntosh, filósofo político y autor que dirige un grupo de reflexión llamado Instituto para la Evolución Cultural. Ahora los dos se han unido para, como dijo McIntosh a Fox News Digital, evitar que los chatbots de IA “polaricen aún más a Estados Unidos como han hecho las redes sociales”.
McIntosh dijo que hay peligros significativos con la IA, reconociendo que hay una amenaza real, pero añadió que también hay oportunidades que no deben perderse.
En este sentido, él y Rozado están colaborando en un nuevo proyecto para construir otro modelo lingüístico llamado LeftWingGPT, que da sistemáticamente respuestas de izquierdas a preguntas con connotaciones políticas, y un tercer modelo llamado DepolarizingGPT, que dará lo que ambos describieron como respuestas “despolarizadoras” e “integradoras”.

-Advertisement-
Las estatuas del burro demócrata y el elefante republicano simbolizan el sistema político bipartidista de Estados Unidos frente al Hotel Willard en Washington, D.C. (Visions of America/Universal Images Group vía Getty Images)
LAS ‘ALUCINACIONES’ DE LOS CHATBOT DE INTELIGENCIA ARTIFICIAL PERPETÚAN FALSEDADES POLÍTICAS Y PREJUICIOS QUE HAN REESCRITO LA HISTORIA DE AMÉRICA
La idea es combinar los tres modelos (RightWingGPT, LeftWingGPT y DepolarizingGPT) en un solo sistema para que, cuando los usuarios hagan una pregunta, obtengan respuestas de los tres y así ofrecer a la gente más perspectivas que la suya propia.
“Si alguien ve las tres respuestas, puede ver tres puntos de vista diferentes y quedar más expuesto”, afirma Rozado. “La gente puede ir más allá de sus propios puntos de vista y formarse su propia opinión”.
Tanto Rozado como McIntosh explicaron que introdujeron obras de intelectuales destacados -por ejemplo, de la talla de los conservadores Thomas Sowell, Milton Friedman, William F. Buckley y Roger Scruton para construir RightWingGPT- para que los modelos estuvieran expuestos a ideas “sanas” y “responsables”, pero no extremas.
“Evitamos las fuentes con puntos de vista desquiciados”, explica Rozado, que señala que el proceso estaba automatizado, por lo que no se limitaban a elegir lo que aprendían los modelos de inteligencia artificial.
Según McIntosh, está previsto que el proyecto entre en funcionamiento en julio, y ambos esperan que marque la diferencia.

El logotipo de OpenAI colocado en un ordenador portátil en Pekín, China, el viernes 24 de febrero de 2023. (Bloomberg vía Getty Images)
¿CUÁLES SON LOS PELIGROS DE LA INTELIGENCIA ARTIFICIAL? DESCUBRE POR QUÉ LA GENTE TEME A LA INTELIGENCIA ARTIFICIAL
El esperado lanzamiento llegaría en un momento fortuito. OpenAI advirtió recientemente de que una IA más capaz modelos pueden tener “mayor potencial para reforzar ideologías enteras, visiones del mundo, verdades y falsedades”. En febrero, la empresa dijo que exploraría el desarrollo de modelos que permitan a los usuarios definir sus valores.
Uno de los retos potenciales es que los modelos lingüísticos de IA pueden captar sutiles sesgos del material de entrenamiento que consumen, o de los humanos que los crean.
“En lugar de fingir que no hay prejuicios, que siempre los hay, mostremos a la gente una derecha responsable, una izquierda responsable y una posición integrada”, afirma McIntosh. “En el fondo, la mayoría de la gente quiere arreglar lo que está mal y preservar lo que está bien. Pero no queremos la Revolución Francesa por un lado ni un apego irracional al estricto statu quo por otro. La verdad es que la izquierda y la derecha son interdependientes y se necesitan mutuamente”.
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
McIntosh señaló que la IA podría convertirse en un arma para manipular la información y promover una ideología concreta, pero quiere ofrecer una vía diferente.
“Queremos mostrar a la gente algo en el espacio político más allá de odiar al otro bando”, dijo.
Source: FOX News