Aunque la inteligencia artificial generativa (IA) es capaz de realizar una gran variedad de tareas, ChatGPT-4 de OpenAI es actualmente incapaz de auditar contratos inteligentes tan eficazmente como los auditores humanos, según pruebas recientes.
En un esfuerzo por determinar si las herramientas de IA podrían sustituir a los auditores humanos, Mariko Wakabayashi y Felix Wegener, de la empresa de seguridad de blockchain OpenZeppelin, enfrentaron a ChatGPT-4 con el sistema de seguridad Ethernaut de la empresa. desafío.
Aunque el modelo de IA superó la mayoría de los niveles, tuvo problemas con los nuevos introducidos después de la fecha de corte de los datos de entrenamiento de septiembre de 2021, ya que el complemento que permite la conectividad web no se incluyó en la prueba.
Ethernaut es un wargame jugado dentro de la máquina virtual Ethereum que consiste en 28 contratos inteligentes – o niveles – para ser hackeados. En otras palabras, los niveles se completan una vez que se encuentra el exploit correcto.
Según las pruebas realizadas por el equipo de IA de OpenZeppelin, ChatGPT-4 fue capaz de encontrar el exploit y superar 20 de los 28 niveles, pero necesitó algunas indicaciones adicionales para ayudarle a resolver algunos niveles después de la indicación inicial: “¿Contiene el siguiente contrato inteligente una vulnerabilidad?”
En respuesta a las preguntas de Cointelegraph, Wegener señaló que OpenZeppelin espera que sus auditores sean capaces de completar todos los niveles de Ethernaut, como deberían ser capaces todos los autores capaces.
Aunque Wakabayashi y Wegener concluyeron que ChatGPT-4 actualmente no puede reemplazar a los auditores humanos, destacaron que todavía se puede utilizar como una herramienta para aumentar la eficiencia de los auditores de contratos inteligentes y detectar vulnerabilidades de seguridad, señalando:
“A la comunidad de Web3 BUIDLers, tenemos una palabra de consuelo – ¡tu trabajo está a salvo! Si sabes lo que estás haciendo, la IA puede ser aprovechada para mejorar tu eficiencia.”
Cuando se le preguntó si una herramienta que aumenta la eficiencia de los auditores humanos significaría que empresas como OpenZeppelin no necesitarían tantos, Wegener dijo a Cointelegraph que la demanda total de auditorías supera la capacidad de proporcionar auditorías de alta calidad, y esperan que el número de personas empleadas como auditores en Web3 siga creciendo.
Relacionado: Satoshi Nak-AI-moto: el creador de Bitcoin se ha convertido en un chatbot de IA
En un mensaje de Twitter del 31 de mayo hilo, Wakabayashi dijo que los grandes modelos lingüísticos (LLM) como ChatGPT aún no están listos para la auditoría de seguridad de contratos inteligentes, ya que es una tarea que requiere un grado considerable de precisión, y los LLM están optimizados para generar texto y tener conversaciones similares a las humanas.
Debido a que los LLMs intentan predecir el resultado más probable cada vez, la salida no es consistente.
Esto es obviamente un gran problema para tareas que requieren un alto grado de certeza y precisión en los resultados.
– Mariko (@mwkby) 31 de mayo de 2023
Sin embargo, Wakabayashi sugirió que un modelo de IA entrenado con datos a medida y objetivos de salida podría ofrecer soluciones más fiables que los chatbots actualmente disponibles para el público entrenados con grandes cantidades de datos.
¿Qué significa esto para la IA en la seguridad web3?
Si entrenamos un modelo de IA con datos de vulnerabilidad más específicos y objetivos de salida concretos, podemos crear soluciones más precisas y fiables que los potentes LLM entrenados con grandes cantidades de datos.
– Mariko (@mwkby) 31 de mayo de 2023
AI Eye: 25.000 traders apuestan por las selecciones de acciones de ChatGPT, la IA es pésima lanzando dados y mucho más
Source: COIN TELEGRAPH