La IA podría amenazar a la humanidad en 2 años, advierte un asesor del grupo de trabajo sobre IA del Reino Unido

La IA podría amenazar a la humanidad en 2 años, advierte un asesor del grupo de trabajo sobre IA del Reino Unido

El asesor del grupo de trabajo sobre Inteligencia Artificial (IA) del Primer Ministro del Reino Unido afirma que los seres humanos tienen aproximadamente dos años para controlar y regular la IA antes de que se vuelva demasiado poderosa.

En un entrevista con un medio de comunicación local del Reino Unido, Matt Clifford, que también preside la Agencia de Investigación e Invención Avanzadas (ARIA) del gobierno, subrayó que los sistemas actuales son cada vez “más capaces a un ritmo cada vez mayor.”

Continuó diciendo que si las autoridades no tienen en cuenta ahora la seguridad y la normativa, los sistemas serán “muy potentes” dentro de dos años.

“Tenemos dos años para poner en marcha un marco que haga que tanto controlar como regular estos modelos tan grandes sea mucho más posible de lo que es hoy”.

Clifford advirtió de que existen “muchos tipos diferentes de riesgos” en lo que respecta a la IA, tanto a corto como a largo plazo, lo que calificó de “bastante aterrador”.

La entrevista se produjo tras una reciente carta abierta publicada por el Center for AI Safety, firmada por 350 expertos en IA, entre ellos el CEO de OpenAI, Sam Altman, que decía que la IA debería tratarse como una amenaza existencial similar a la que suponen las armas nucleares y las pandemias.

“Hablan de lo que ocurrirá cuando creemos efectivamente una nueva especie, una especie de inteligencia superior a la humana”.

El asesor del grupo de trabajo sobre IA dijo que estas amenazas planteadas por la IA podrían ser “muy peligrosas” y podrían “matar a muchos humanos, no a todos los humanos, simplemente desde donde esperaríamos que estuvieran los modelos dentro de dos años”.

Relacionado: La rentabilidad de las criptomonedas relacionadas con la IA aumentó hasta un 41% tras el lanzamiento de ChatGPT: Estudio

Según Clifford, el principal objetivo de los reguladores y desarrolladores debería ser comprender cómo controlar los modelos y, a continuación, aplicar normativas a escala mundial.

Por ahora, dijo que su mayor temor es la falta de comprensión de por qué los modelos de IA se comportan como lo hacen.

“Las personas que están construyendo los sistemas más capaces admiten libremente que no entienden exactamente cómo se comportan. [AI systems] exhiben los comportamientos que tienen”.

Clifford destacó que muchos de los líderes de las organizaciones que construyen IA también están de acuerdo en que los modelos de IA potentes deben someterse a algún tipo de proceso de auditoría y evaluación antes de su despliegue.

En la actualidad, los reguladores de todo el mundo se esfuerzan por comprender la tecnología y sus ramificaciones, al tiempo que intentan crear normativas que protejan a los usuarios y permitan la innovación.

El 5 de junio, funcionarios de la Unión Europea llegaron a sugerir que todos los contenidos generados por inteligencia artificial fueran etiquetados como tales para evitar la desinformación.

En el Reino Unido, un miembro del partido laborista de la oposición se hizo eco de los sentimientos mencionados en la carta del Centro para la Seguridad de la IA, afirmando que la tecnología debería regularse como la medicina y la energía nuclear.

Revista: AI Eye: 25.000 traders apuestan por las selecciones de acciones de ChatGPT, la IA es pésima lanzando dados y mucho más

Source: COIN TELEGRAPH

RODRIGO DI PAULA AMBRISSI: