-Advertisement-
En medio de problemas de privacidad y ciberseguridad, y de recientes prohibiciones en diferentes países, la empresa de inteligencia artificial (IA) OpenAI ha lanzado un programa para combatir los problemas de vulnerabilidad.
El 11 de abril, OpenAI, la empresa que está detrás de ChatGPT, anunció el lanzamiento del “Bug Bounty Program” de OpenAI para ayudar a identificar y solucionar vulnerabilidades en sus sistemas. Según el anuncio, el programa recompensa a los investigadores de seguridad por sus contribuciones para mantener la seguridad de la tecnología y la empresa de OpenAI.
OpenAI invitó a la comunidad global de investigadores de seguridad, hackers éticos y entusiastas de la tecnología, ofreciendo incentivos por información cualificada sobre vulnerabilidades. La empresa de IA cree que la experiencia y la vigilancia repercutirán directamente en el mantenimiento de la seguridad de sus sistemas y en la seguridad de los usuarios.
El lanzamiento del programa se produce después de que el Secretario Jefe del Gabinete japonés, Hirokazu Matsuno, declarara el lunes que Japón contemplaría la posibilidad de incorporar la tecnología de IA a los sistemas gubernamentales, siempre que se aborden las cuestiones de privacidad y ciberseguridad.
OpenAI sufrido una filtración de datos el 20 de marzo, en la que los datos de los usuarios quedaron expuestos a otro usuario debido a un fallo en una biblioteca de código abierto.
En el anuncio, OpenAI afirma que se ha asociado con Bugcrowd -una plataforma de recompensas por fallos- para gestionar el proceso de envío y recompensa, que está diseñado para garantizar una experiencia ágil para todos los participantes. Las recompensas en metálico se concederán en función de la gravedad y el impacto de los problemas notificados. Las recompensas oscilan entre 200 dólares por hallazgos de baja gravedad y 20.000 dólares por descubrimientos excepcionales.
Relacionado: Las aplicaciones GPT-4 BabyAGI y AutoGPT podrían tener implicaciones disruptivas para la criptografía
Se proporciona protección de puerto seguro para la investigación de vulnerabilidades realizada de acuerdo con las directrices específicas enumeradas por OpenAI. Se espera que los investigadores cumplan todas las leyes aplicables.
Si un tercero emprende acciones legales contra un investigador de seguridad que participó en el programa de recompensas por fallos de OpenAI y el investigador siguió las normas del programa, OpenAI informará a los demás de que el investigador actuó dentro de las directrices del programa. Esto se debe a que los sistemas de OpenAI están conectados con otros sistemas y servicios de terceros.
Revista: Todos en pie por el juez robot: La IA y el blockchain podrían transformar los juzgados
Source: COIN TELEGRAPH