OpenAI, a publié, le 14 février 2024, un article qui détaille ses efforts contre les acteurs malveillants, en particulier ceux affiliés à des États, qui utilisent ses services d’IA à des actions malveillantes.
Table des matières
Perturbation d’acteurs étatiques malveillants
En collaboration avec Microsoft et grâce aux échanges entre eux , OpenAI a identifié et fermé les comptes de cinq groupes d’acteurs malveillants soutenus par des États : deux groupes chinois connus sous les noms de Charcoal Typhoon et Salmon Typhoon, un groupe iranien appelé Crimson Sandstorm, un groupe nord-coréen nommé Emerald Sleet et un groupe russe appelé Forest Blizzard.
Ces groupes utilisaient principalement les services d’OpenAI pour des tâches apparemment inoffensives comme la recherche d’informations open source, la traduction, la recherche d’erreurs de codage et l’exécution de tâches de codage basiques. Cependant, le contenu généré pouvait potentiellement être utilisé pour des campagnes de phishing ou le développement de logiciels malveillants.
Capacité limitée pour les activités malveillantes
OpenAI rassure les utilisateurs en soulignant que les modèles actuels tels que GPT-4 offrent un avantage minime contre les cyberactivités malveillantes par rapport aux outils non-IA disponibles gratuitement.
L’approche multidimensionnelle d’OpenAI
OpenAI aborde ce problème de différentes manières :
• Surveillance et perturbation des acteurs étatiques malveillants : OpenAI investit dans la technologie et les équipes pour identifier et perturber les activités des acteurs malveillants sophistiqués.
• Collaboration avec l’écosystème de l’IA : OpenAI collabore avec des partenaires industriels et d’autres parties prenantes pour partager régulièrement des informations sur les utilisations détectées de l’IA par des acteurs étatiques malveillants.
• Amélioration des mesures de sécurité : OpenAI apprend de l’utilisation (et des utilisations abusives) du monde réel pour créer et publier des systèmes d’IA plus sécurisés au fil du temps.
• Transparence publique : OpenAI tiendra le public et les parties prenantes informés de la nature et de l’étendue de l’utilisation de l’IA par des acteurs étatiques malveillants découverts dans ses systèmes, ainsi que des mesures prises à leur encontre.
Un message clair
Alors que la grande majorité des utilisateurs d’OpenAI utilisent ses outils pour de bon, une petite minorité les utilise à mauvais escient. OpenAI s’engage à s’améliorer et à collaborer continuellement pour minimiser ces abus et garantir la sécurité de sa plateforme.
Share this content: