-Advertisement-
El consejero delegado Tim Cook dio una rara, aunque reservada, mirada al jardín amurallado de Apple durante la parte de Q&A de una reciente llamada de ganancias cuando se le preguntó su opinión sobre la inteligencia artificial generativa (IA) y hacia dónde “ve que va”.
Cook se abstuvo de revelar los planes de Apple, declarando por adelantado: “No hacemos comentarios sobre hojas de ruta de productos.” Sin embargo íntimo que la empresa estaba interesada en el espacio:
“Creo que es muy importante ser deliberado y reflexivo a la hora de abordar estas cosas. Y hay una serie de cuestiones que deben resolverse. … Pero el potencial es ciertamente muy interesante”.
Más tarde, el Consejero Delegado añadió que la empresa considera que “la IA es enorme” y que “seguirá incorporándola a nuestros productos de forma muy meditada.”
Los comentarios de Cook sobre la adopción de un enfoque “deliberado y reflexivo” podrían explicar la ausencia de la compañía en el espacio de la IA generativa. Sin embargo, hay indicios de que Apple está llevando a cabo sus propias investigaciones sobre modelos relacionados.
Un trabajo de investigación programado que se publicará en la conferencia Interaction Design and Children el próximo mes de junio, detalla un novedoso sistema para combatir el sesgo en el desarrollo de conjuntos de datos de aprendizaje automático.
El sesgo -la tendencia de un modelo de IA a hacer predicciones injustas o inexactas basadas en datos incorrectos o incompletos- es citado a menudo como una de las preocupaciones más acuciantes para el desarrollo seguro y ético de modelos generativos de IA.
Me alegro de que OpenAI controle sus prejuicios. pic.twitter.com/y4a7FUochR
– Brooklin Nash (@realBrookNash) 27 de abril de 2023
El documento, que actualmente puede leer en preprint, detalla un sistema por el cual múltiples usuarios contribuirían a desarrollar el conjunto de datos de un sistema de IA con aportaciones iguales.
El statu quo en el desarrollo de IA generativa no incorpora la retroalimentación humana hasta etapas posteriores, cuando los modelos ya han adquirido un sesgo de entrenamiento.
La nueva investigación de Apple integra la opinión humana en las primeras fases del desarrollo de modelos para democratizar el proceso de selección de datos. El resultado, según los investigadores, es un sistema que emplea un “enfoque práctico y colaborativo para introducir estrategias que permitan crear conjuntos de datos equilibrados.”
Relacionado: El problema de la caja negra de la IA: retos y soluciones para un futuro transparente
Cabe mencionar que este estudio de investigación se diseñó como paradigma educativo para fomentar el interés de los principiantes por el desarrollo del aprendizaje automático.
Podría resultar difícil escalar las técnicas descritas en el artículo para su uso en el entrenamiento de grandes modelos lingüísticos (LLM) como ChatGPT y Google Bard. Sin embargo, la investigación demuestra un enfoque alternativo para combatir el sesgo.
En última instancia, la creación de un LLM sin sesgos no deseados podría representar un hito en el camino hacia el desarrollo de sistemas de IA de nivel humano.
Dichos sistemas podrían alterar todos los aspectos del sector tecnológico, especialmente los mundos de la tecnología financiera, el comercio de criptomonedas y la cadena de bloques. Por ejemplo, los robots imparciales de negociación de acciones y criptomonedas capaces de razonar a nivel humano podrían sacudir el mercado financiero mundial al democratizar los conocimientos de negociación de alto nivel.
Además, la demostración de un LLM imparcial podría contribuir en gran medida a satisfacer las preocupaciones éticas y de seguridad de los gobiernos para la industria de la IA generativa.
Esto es especialmente importante para Apple, ya que cualquier producto de IA generativa que desarrolle o decida apoyar se beneficiaría del chipset de IA integrado en el iPhone y de sus 1.500 millones de usuarios.
Source: COIN TELEGRAPH