Dans une révélation conjointe, Microsoft et OpenAI ont exposé l’exploitation croissante de leurs technologies d’intelligence artificielle, y compris les modèles de langage à grande échelle (LLMs) comme ChatGPT, par des cybercriminels.
Ces derniers détournent ces outils avancés pour affûter leurs cyberattaques. Les activités malveillantes comprennent la recherche d’informations sur des cibles potentielles, l’amélioration de scripts malveillants et le développement de techniques d’ingénierie sociale plus sophistiquées.
Face à cette menace grandissante, Microsoft souligne l’importance cruciale de l’utilisation de l’intelligence artificielle pour renforcer les défenses contre ces cyberattaques. Le partenariat avec OpenAI vise à assurer une utilisation sûre et responsable de l’IA, en adhérant aux normes éthiques les plus strictes. Dans cet esprit, Microsoft développe le « Security Copilot », un assistant IA destiné à soutenir les professionnels de la sécurité en ligne dans l’identification des brèches de sécurité et la compréhension des données complexes générées par les outils de cybersécurité.
Cette initiative est une partie d’une stratégie plus large visant à repenser la sécurité logicielle, en réponse à d’importantes attaques subies par le cloud Azure et d’autres infrastructures critiques. Bien que l’usage de l’IA par les cybercriminels en soit encore à ses débuts, Microsoft avertit de la possibilité d’attaques plus sophistiquées à l’avenir, incluant l’imitation de la voix.
Pour le moment, aucune attaque majeure exploitant les LLMs n’a été détectée par Microsoft et OpenAI, qui prennent déjà des mesures proactives en désactivant tous les comptes et actifs liés à ces groupes de pirates informatiques. La coopération avec la communauté des défenseurs de la cybersécurité, par le partage d’informations sur ces menaces émergentes, est jugée essentielle pour anticiper et contrer efficacement les tactiques malveillantes.