-Advertisement-
La mayoría de las revoluciones tecnológicas tienen un lado oscuro imprevisto.
Cuando los físicos de origen austriaco Lise Meitner y Otto Frisch dividieron el átomo por primera vez a finales de la década de 1930, probablemente no previeron que su descubrimiento conduciría unos años más tarde a la bomba atómica. Podría decirse que la revolución de la inteligencia artificial (IA) no es diferente.
Los algoritmos de IA existen desde hace décadas. La primera red neuronal artificial, el perceptrón, se inventó en 1958. Pero el ritmo de desarrollo reciente ha sido impresionante, y con dispositivos de reconocimiento de voz como Alexa y chatbots como ChatGPT, la IA parece haber adquirido una nueva conciencia pública.
En el lado positivo, la IA podría elevar drásticamente el nivel educativo general del planeta y ayudar a encontrar curas para enfermedades devastadoras como el Alzheimer. Pero también podría desplazar puestos de trabajo y reforzar a los Estados autoritarios que pueden utilizarla para vigilar a sus poblaciones. Además, si las máquinas alcanzan algún día una inteligencia “general”, podrían incluso ser entrenadas para anular elecciones y llevar a cabo guerras, advirtió recientemente Geoffrey Hinton, pionero de la IA.
“Enorme potencial y enorme peligro” es como el Presidente de los Estados Unidos Joe Biden recientemente describió AI. Esto siguió a una carta abierta en marzo de más de 1.000 líderes tecnológicos, entre ellos Elon Musk y Steve Wozniak, pidiendo una moratoria para desarrollos de IA como ChatGPT. La tecnología, decían, presenta “profundos riesgos para la sociedad y la humanidad”.
Algunos países ya se están alineando contra OpenAI, el desarrollador de ChatGPT. Italia prohibió temporalmente ChatGPT en marzo, y el comisionado de privacidad de Canadá está investigando a OpenAI por supuesta recopilación y utilización de información personal sin consentimiento. La UE está negociando nuevas normas para la IA, mientras que China exige que los desarrolladores de IA se atengan a partir de ahora a estrictas normas de censura. Cierto grado de regulación parece inevitable.
¿Un antídoto contra la IA?
Con este telón de fondo, se plantea una pregunta: ¿Puede la tecnología blockchain remediar los problemas que aquejan a la inteligencia artificial, o al menos algunos de ellos? Después de todo, la tecnología de libro mayor descentralizado es todo lo que la IA no es: transparente, rastreable, fiable y libre de manipulaciones. Podría ayudar a compensar parte de la opacidad de las soluciones de caja negra de la IA.
Anthony Day, responsable de estrategia y marketing de Midnight, una cadena lateral de Cardano. escribió en abril en LinkedIn con respecto a la tecnología blockchain: “SÍ necesitamos crear una forma de permitir una CONFIANZA rastreable, transparente, no censurable y automatizada en dónde y qué harán las IAs por (o para) nuestro mundo”.
Como mínimo, las cadenas de bloques podrían ser un repositorio para los datos de entrenamiento de la IA. O como Jerry Cuomo de IBM escribió hace varios años, una observación que sigue siendo válida hoy en día:
“Con blockchain, se puede rastrear la procedencia de los datos de entrenamiento, así como ver una pista de auditoría de las pruebas que llevaron a la predicción de por qué una fruta en particular se considera una manzana frente a una naranja.”
“Los usuarios de modelos de IA centralizados a menudo no son conscientes de los sesgos inherentes a su entrenamiento”, explica a Magazine Neha Singh, cofundadora de Tracxn Technologies -una plataforma de análisis e inteligencia de mercado-. “Aumentar la transparencia de los modelos de IA puede ser posible utilizando la tecnología blockchain”.
Muchos coinciden en que hay que hacer algo antes de que la IA se generalice más. “Para confiar en la inteligencia artificial, la gente debe saber y entender exactamente qué es la IA, qué está haciendo y su impacto”. afirma Kay Firth-Butterfield, responsable de inteligencia artificial y aprendizaje automático del Foro Económico Mundial. “Los líderes y las empresas deben hacer de la IA transparente y fiable una prioridad a medida que implementan esta tecnología”.
Curiosamente, ya se está trabajando en este sentido. En febrero, la empresa estadounidense de tecnología financiera FICO recibió una patente para “Blockchain for Data and Model Governance”, registrando oficialmente un proceso que lleva años utilizando para garantizar prácticas de IA “responsables”.
FICO utiliza un libro mayor basado en Ethereum para rastrear la procedencia de extremo a extremo “del desarrollo, la operacionalización y la supervisión de los modelos de aprendizaje automático de una manera inmutable”. según de la empresa, que cuenta con más de 300 científicos de datos y trabaja con muchos de los mayores bancos del mundo. Hay diferencias sutiles entre los términos “IA” y “aprendizaje automático”, pero a menudo se utilizan indistintamente.
El uso de una cadena de bloques permite la auditabilidad y fomenta la confianza en los modelos y las empresas, Scott Zoldi, director de análisis de FICO, escribió en una publicación de AI a principios de este año.
“Es importante destacar que el blockchain proporciona un rastro de la toma de decisiones. Muestra si una variable es aceptable, si introduce un sesgo en el modelo o si se utiliza adecuadamente….. Registra todo el recorrido de la construcción de estos modelos, incluidos sus errores, correcciones y mejoras.”
Las herramientas de IA necesitan ser bien comprendidas, y necesitan ser justas, equitativas y transparentes para un futuro justo, dijo Zoldi, y añadió: “Y ahí es donde creo que la tecnología blockchain encontrará un matrimonio potencial con la IA.”
Separar el artificio de la verdad
El desarrollo de modelos es un área clave en la que blockchain puede marcar la diferencia, pero hay otras. Algunos anticipan que dispositivos como ChatGPT podrían tener un efecto nocivo en los medios sociales y las plataformas de noticias, por ejemplo, al dificultar la separación entre artificio y lo que es real o verdadero.
“Este es uno de los lugares donde blockchain puede ser más útil en plataformas emergentes: para demostrar que la persona X dijo Y en una fecha/hora concreta”, explica a Magazine Joshua Ellul, profesor asociado y director del Centre for Distributed Ledger Technologies de la Universidad de Malta.
De hecho, una cadena de bloques puede ayudar a construir una especie de marco para la rendición de cuentas en el que, por ejemplo, las personas y las organizaciones puedan surgir como fuentes de confianza. Por ejemplo, continúa Ellul, “si la persona X consta que ha dicho Y, y es innegable”, entonces eso se convierte en un punto de referencia, por lo que “en el futuro, los individuos podrían construir sus propias calificaciones de confianza para otras personas basándose en lo que dijeron en el pasado”.
Lea también
Características
Justin Aversano da un salto cualitativo para la fotografía NFT
Características
Asegúrate de que Ethereum gane”: Steve Newcomb revela la directiva principal de zkSync
“Como mínimo, se podría utilizar una solución blockchain para hacer un seguimiento de los datos, la formación, las pruebas, las auditorías y los eventos post mortem de forma que se garantice que una parte no pueda cambiar algunos de los acontecimientos que se produjeron”, añade Ellul.
Sin embargo, no todos están de acuerdo en que blockchain pueda llegar a la raíz de lo que realmente aqueja a la IA. “Soy algo escéptico en cuanto a que blockchain pueda considerarse un antídoto contra la IA”, afirma a Magazine Roman Beck, profesor de la Universidad IT de Copenhague y director del Centro Europeo de Blockchain.
“Ya tenemos hoy algunos retos en el seguimiento y rastreo de lo que los contratos inteligentes están haciendo realmente, y aunque blockchain debería ser transparente, algunas de las actividades son difíciles de auditar”.
En otro lugar, la Comisión Europea ha estado buscando crear un “espacio transatlántico para #AI confiable”. Pero cuando se le preguntó si la tecnología blockchain podría ayudar a compensar la opacidad de la IA, un funcionario de la Comisión Europea se mostró dubitativo, diciendo a Magazine:
“Blockchain permite el seguimiento de las fuentes de datos y protege la privacidad de las personas, pero, por sí mismo, no aborda el problema de la caja negra en las redes neuronales de IA, el enfoque más común, también utilizado en ChatGPT, por ejemplo. No ayudará a los sistemas de IA a dar explicaciones sobre cómo y por qué se ha tomado una determinada decisión.”
Cuando los “algos se vuelven locos“
Puede que blockchain no pueda “salvar” la IA, pero Beck sigue imaginando formas en que ambas tecnologías pueden reforzarse mutuamente. “El área más probable en la que blockchain puede ayudar a la IA es el aspecto de la auditoría. Si queremos evitar que la IA se utilice para hacer trampas o participar en cualquier otra actividad ilegal, se podría pedir un registro de los resultados de la IA en un libro de contabilidad. Uno podría utilizar la IA, pero en caso de que los resultados se utilizaran de forma maliciosa o ilegal, podría rastrear cuándo y quién ha utilizado la IA, ya que quedaría registrado.”
O pensemos en los vehículos de conducción autónoma desarrollados con tecnología de IA en los que “sensores, algoritmos y blockchain proporcionarían un sistema operativo autónomo para la comunicación y coordinación entre máquinas”, añade Beck. “Puede que aún no seamos capaces de explicar cómo ha decidido la IA, pero podemos asegurar la rendición de cuentas y, por tanto, la gobernanza”. Es decir, la blockchain podría ayudar a rastrear quién o qué tuvo realmente la culpa cuando “un algo se volvió loco”.
Incluso el funcionario de la UE antes mencionado puede prever las ventajas de la cadena de bloques, aunque no pueda resolver el problema de la “caja negra” de la IA. “Utilizando blockchain, podría ser posible crear un registro transparente y a prueba de manipulaciones de los datos utilizados para entrenar modelos de IA. Sin embargo, blockchain por sí sola no aborda la detección y reducción del sesgo, que es un reto y sigue siendo una cuestión de investigación abierta.”
Implementación de una blockchain para rastrear el modelado de IA
En el sector corporativo, muchas empresas siguen luchando por conseguir una IA “digna de confianza”. FICO y Corinium encuestaron recientemente a unas 100 empresas norteamericanas de servicios financieros y encontraron que “el 43% de los encuestados dijeron que luchan con estructuras de gobierno de IA responsables para cumplir con los requisitos reglamentarios.” Al mismo tiempo, solo el 8% informó que sus estrategias de IA “están completamente maduras con estándares de desarrollo de modelos escalados consistentemente.”
Fundada en 1956 como Fair, Isaac and Company, FICO ha sido pionera en el uso de análisis predictivos y ciencia de datos para decisiones empresariales operativas. Crea modelos de IA que ayudan a las empresas a gestionar el riesgo, combatir el fraude y optimizar las operaciones.
A la pregunta de cómo llegó la empresa a emplear una blockchain de Ethereum autorizada en 2017 para su trabajo de análisis, Zoldi explicó que había estado manteniendo conversaciones con bancos por aquel entonces. Se enteró de que entre el 70% y el 80% de los modelos de IA que se desarrollaban nunca llegaban a la fase de producción.
Lea también
Características
La criptomoneda como “bien público” en el siglo XXII
Características
Los fotógrafos de la vieja escuela se enfrentan a las NFT: Nuevo mundo, nuevas reglas
Un problema clave era que los científicos de datos, incluso dentro de la misma organización, estaban construyendo modelos de diferentes maneras. Además, muchos no pasaban las comprobaciones de gobernanza una vez terminados los modelos. Por ejemplo, una prueba a posteriori podría revelar que una herramienta de IA para la detección de fraudes discriminaba inadvertidamente a determinados grupos étnicos.
“Zoldi recuerda que pensó: “Tiene que haber una forma mejor de hacer que Sally cree un modelo y seis meses más tarde, cuando ya ha dejado la empresa, descubra que no registró la información correctamente o que no siguió los protocolos de gobernanza adecuados para el banco”.
FICO se puso manos a la obra para desarrollar una norma de gobernanza responsable de la IA que utilizaba una blockchain para hacerla cumplir. Los desarrolladores debían ser informados de antemano sobre los algoritmos que podrían utilizarse, los protocolos de pruebas éticas que debían seguirse, los umbrales para modelos imparciales y otros procesos requeridos.
Mientras tanto, la blockchain registra todo el recorrido en el desarrollo de cada modelo, incluidos errores, correcciones e innovaciones. “Así, por cada científico que desarrolla un modelo, otro revisa el trabajo y un tercero aprueba que todo se ha hecho correctamente. Tres científicos han revisado el trabajo y verificado que cumple la norma”, afirma Zoldi.
¿Qué ocurre con los problemas de escalabilidad de la cadena de bloques? ¿Cabe todo en un único libro de contabilidad digital? “No es un gran problema. Almacenaremos [on the blockchain] un hash de – digamos, un activo de software – pero el activo de software en sí se almacenará en otro lugar, en otra cosa como un repositorio git. No tenemos que poner literalmente 10 megabytes de datos en la blockchain”.
Una “responsabilidad moral y legal“
Los desarrolladores comerciales harían bien en prestar atención a experiencias como la de FICO, porque los líderes políticos están despertando claramente a los riesgos que presenta la IA. “El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos”. dijo la vicepresidenta estadounidense Kamala Harris en un comunicado. “Y todas las empresas deben cumplir las leyes vigentes para proteger al pueblo estadounidense”.
Las preocupaciones también son mundiales. Como dice el funcionario de la UE a Magazine, “para garantizar que la IA sea beneficiosa para la sociedad, necesitamos un enfoque doble: En primer lugar, es necesario seguir investigando en el campo de la IA fiable para mejorar la propia tecnología, haciéndola transparente, comprensible, precisa, segura y respetuosa con la privacidad y los valores. En segundo lugar, debe establecerse una regulación adecuada de los modelos de IA para garantizar su uso responsable y ético, como proponemos en la [EU] Ley de IA”.
El sector privado debería sopesar las ventajas de la autorregulación. Por ejemplo, podría ser una gran ayuda para los desarrolladores de una empresa. Los científicos de datos a veces se sienten en una situación difícil, dice Zoldi. “A menudo no se especifica la ética con la que construyen sus modelos ni las normas utilizadas”, y eso les incomoda.
Los fabricantes de dispositivos de IA no quieren hacer daño a la gente, pero a menudo no se les proporcionan las herramientas necesarias para garantizar que eso no ocurra. Una cadena de bloques puede ayudar, aunque, en última instancia, puede ser uno de los varios guardarraíles autorreguladores o jurisdiccionales que deben utilizarse para garantizar un futuro de IA digno de confianza.
“Hablas con expertos y te dicen: ‘Somos lo suficientemente inteligentes como para ser capaces de generar esta tecnología. No somos lo bastante listos para regularla, entenderla o explicarla”, y eso da mucho miedo”, explica Zoldi a Magazine.
Con todo, el potencial de blockchain para apoyar una IA responsable aún no ha sido ampliamente reconocido, pero eso podría cambiar pronto. Algunos, como Anthony Day, incluso apuestan por ello: “No estoy seguro de si blockchain realmente salvará el mundo, pero estoy seguro de que puede salvar la IA”.
Suscríbase a
Las lecturas más interesantes sobre blockchain. Entregado una vez
semana.
Source: COIN TELEGRAPH