Des innombrables articles d’actualité aux publications sur votre fil d’information sur vos réseaux sociaux, en passant par les nouveaux outils intégrés à vos logiciels préférés, l’intelligence artificielle est partout.  Bien que la technologie ne date pas d’hier, l’IA générative a récemment fait le buzz avec la sortie de ChatGPT en novembre 2022, un grand modèle linguistique (LLM) qui utilise l’ingénierie de prompt pour générer du résultat pour les utilisateurs.

Les principaux avantages de l’IA générative

Alors que l’IA gagne en popularité, les risques liés à l’utilisation de cette technologie suscitent des inquiétudes. Les cybercriminels ont déjà trouvé des moyens d’exfiltrer des données à partir de différents outils d’IA, notamment en utilisant des plateformes telles que WormGPT, un modèle d’IA entraîné sur les données servant à créer des malwares et utilisé à des fins malveillantes ou pour générer du code malveillant.

Quels sont alors les principaux avantages de l’utilisation de l’IA générative et la part des risques à surveiller ? Alors que l’utilisation des outils d’IA générative augmente et que le coût moyen d’une fuite de données s’élevait à 4,35 M$ en 2022, il est temps de vous assurer que votre entreprise est bien protégée.

Les équipes de sécurité peuvent en effet tirer des avantages de nombreux aspects de l’IA générative, notamment l’amélioration des activités de cybersécurité, la détection des menaces et les mécanismes de défense.

Les autres avantages de l’utilisation de l’IA générative

– l’analyse des malwares : l’IA générative peut permettre de générer des variantes d’échantillons de malwares connus, aidant les professionnels de la cybersécurité à créer des systèmes de détection et d’analyse plus complets des malwares.
Leurre et honeypots : l’IA générative peut permettre de créer des systèmes de leurre ou des honeypots réalistes qui attirent les attaquants. Cela permet aux équipes de sécurité de surveiller et d’analyser les techniques d’attaque, de recueillir des renseignements sur les menaces et de détourner les attaquants des ressources réelles.
– la génération automatisée de réponses
lorsqu’une attaque est détectée, l’IA générative peut aider à générer des réponses automatisées pour atténuer la menace. Cela peut inclure les règles des pare-feux, le déploiement de contre-mesures et l’isolement des systèmes compromis. Les analystes peuvent ainsi gagner du temps dans leur réponse aux menaces.
– les mesures de sécurité adaptatives
l’IA générative peut aider à développer des mécanismes de sécurité qui s’adaptent à l’évolution des menaces. En apprenant en permanence des nouvelles techniques d’attaque, ces systèmes peuvent évoluer et améliorer leurs stratégies de défense au fil du temps.
– la visualisation des attaques
l’IA générative peut aider à visualiser les modèles et comportements d’attaque complexes, ce qui permet aux analystes de sécurité de comprendre plus facilement comment les attaques sont exécutées et d’identifier des tendances qui ne sont pas forcément visibles de prime abord.

Chaque médaille a son revers. Alors que l’IA générative offre bien des avantages en plus de ceux cités ci-dessus, elle présente aussi des défis et des risques. Le point commun de toutes les entreprises est l’augmentation considérable de l’accès des données par tous les membres de l’entreprise. C’est vraiment le risque le plus important qui, selon nous, n’est pas pris en compte par la plupart des entreprises.

Au fur et à mesure que l’adoption des outils d’IA se développera, les humains deviendront de plus en plus paresseux et feront peut-être trop confiance à l’IA pour effectuer les contrôles de sécurité qu’ils devraient réaliser eux-mêmes. Par exemple, un employé pourrait demander à Microsoft Copilot de créer une proposition commerciale à partir de documents existants et de notes de réunion, évitant ainsi des heures de travail. Il pourrait passer rapidement en revue le résultat et penser que tout est correct, mais il se pourrait que des informations sensibles contenues dans les documents d’origine se retrouvent aussi dans la proposition commerciale, si celle-ci n’était pas minutieusement étudiée.

Outre les problèmes de sécurité internes, les pirates utiliseront l’IA pour écrire du code malveillant, trouver des vulnérabilités et lancer des campagnes à grande échelle. Les attaquants utiliseront également l’IA pour générer de faux ensembles de données et les utiliser pour essayer d’extorquer les entreprises (ou, du moins, leur faire perdre leur temps).

Les attaquants vont gagner en compétence sur l’ingénierie de prompt au lieu d’apprendre PowerShell ou Python. S’ils savent qu’ils peuvent compromettre un utilisateur et qu’il aura accès à un outil d’IA, pourquoi ne pas s’améliorer en ingénierie de prompt ?

Autres problèmes de sécurité et risques associés à l’IA générative

Les campagnes de cyberattaque à la demande
Les attaquants peuvent exploiter l’IA générative pour automatiser la création de malwares, de campagnes de phishing ou d’autres cyber-menaces, ce qui pourrait faciliter le lancement d’attaques d’envergure.
Pas de protection au sein des outils
Les outils d’IA courent également le risque d’être manipulés pour produire des résultats incorrects ou malveillants. Certains outils d’IA ont mis en place des normes éthiques pour éviter l’utilisation inappropriée du produit, mais les acteurs malveillants ont trouvé des moyens de les contourner.
– La fuite d’informations sensibles
les modèles d’IA générative apprennent souvent à partir de grands ensembles de données, qui peuvent contenir des données sensibles, en fonction des informations partagées. S’ils ne sont pas correctement gérés, le risque existe de révéler accidentellement des informations confidentielles dans les résultats générés. Les modèles d’IA peuvent également stocker ces informations, ce qui rend vos données sensibles accessibles à quiconque accède à votre compte utilisateur avec différents outils d’IA.
– le vol de propriété intellectuelle
Les modèles génératifs récupèrent souvent une quantité massive d’informations accessibles au public, y compris des données propriétaires exposées. Il existe un vrai risque que l’IA générative enfreigne les droits de propriété intellectuelle d’autrui et fasse l’objet de poursuites judiciaires.
– le risque pour l’identité et deepfakes
l’IA générative peut être utilisée pour créer de fausses images, vidéos ou clips audio convaincants, menant à l’usurpation d’identité, au vol d’identité et à la création de deepfakes susceptibles de diffuser de fausses informations.

C’est indéniable, l’IA a conquis la planète tout entière et la technologie continuera d’évoluer dans les années à venir.  Il faut alors comprendre les avantages et les risques liés à l’IA, former à l’utilisation correcte des différents outils d’IA et définir des paramètres concernant ce qui est acceptable et ce qui ne l’est pas.
Le plus important est l’impact de l’IA sur la protection de la vie privée et la conformité. Cela ne disparaîtra pas de sitôt. L’IA va être de plus en plus présente, il faut donc s’assurer que les politiques et procédures en place sur l’utilisation de l’IA sont correctes et respectées par tous au sein de l’entreprise. C’est là la clé de la survie de toute organisation.
IA et securite credit Depositphotos_Gorodenkoff