Retour sur l'intervention de notre AI Program Director au Forum Cybersec Cloud sur le thème :
"L'intelligence artificielle : Quels risques et quelles protections attendre de cette technologie ? Quels sont les risques liés à l’IA générative, quels sont les contre-mesures à mettre en place ?" aux côtés de Fabrice Frossard
Durant cet atelier, Andrzej Neugebauer , a mis en lumière les enjeux majeurs liés à la cybersécurité face à l’IA générative. Dans un monde où l’intelligence artificielle évolue à un rythme effréné, il est essentiel de comprendre à la fois les opportunités et les menaces que cette technologie représente.
L’IA Générative : Opportunité ou Menace ?
L’IA générative est une technologie puissante qui peut être utilisée à des fins bénéfiques comme malveillantes. Elle permet d’améliorer la cybersécurité, mais peut également devenir un outil redoutable pour les cybercriminels.
Menaces accrues par l’IA générative
- Phishing ultra-réaliste : Création d’e-mails frauduleux sans fautes, mimant parfaitement le style de communication d’une victime.
- Deepfake audio et vidéo : Usurpation d’identité pour tromper des entreprises et institutions.
- Automatisation des attaques : Génération de scripts malveillants à partir de simples commandes en langage naturel.
- Cyberattaques massives : Exploitation simultanée de failles à grande échelle, avec un taux de réussite alarmant (87 % selon une étude de Stanford).
Comment renforcer la sécurité ?
- Sensibilisation et formation des utilisateurs : la première ligne de défense contre les attaques reste la vigilance humaine
- Authentification multifacteurs (MFA) : méthodes d'authentification supplémentaires (comme des tokens ou des biométriques) réduis drastiquement les risques d'accès malveillant
- Analyse comportementale et détection des anomalies en temps réel
- Renforcer la sécurité des données
- Tests de vulnérabilité réguliers et mises à jour
- Utilisation de l'IA pour la cybersécurité : les systèmes de prévention des
intrusions (IPS), les pare-feu intelligents améliorés avec de l'IA, plateformes SIEM. - Segmentation des réseaux et politiques d'accès strictes
- Collaboration pour l'amélioration : mutualiser les connaissances sur les types d'attaques et les vulnérabilités, afin de disposer d'outils capables de collecter, analyser et traiter ces informations.
Avec OpenLLM France / Europe, nous développons à LUCIE, qui vise à développer une IA souveraine et sécurisé en opposition aux modèles fermés des GAFAM.