Отчёт о выступлении нашего директора программы ИИ на форуме Cybersec Cloud на тему:
«Искусственный интеллект: какие риски и какую защиту ожидать от этой технологии? Какие риски связаны с генеративным ИИ и какие контрмеры следует внедрить?» вместе с Фабрисом Фроссаром.
Во время этого семинара Анджей Нойгебауэр осветил ключевые вопросы, связанные с кибербезопасностью в контексте генеративного ИИ. В мире, где искусственный интеллект развивается стремительными темпами, крайне важно понимать как возможности, так и угрозы, которые представляет эта технология.
Генеративный ИИ: возможность или угроза?
Генеративный ИИ — это мощная технология, которая может использоваться как в благих целях, так и в злонамеренных. Она помогает улучшать кибербезопасность, но при этом может стать опасным инструментом в руках киберпреступников
Усиление угроз благодаря генеративному ИИ
- Ультрареалистичный фишинг: создание мошеннических писем без ошибок, точно имитирующих стиль общения жертвы
 - Аудио- и видео-дипфейки: подмена личности с целью обмана компаний и учреждений
 - Автоматизация атак: создание вредоносных скриптов на основе простых команд на естественном языке
 - Массовые кибератаки: одновременное использование уязвимостей в больших масштабах с тревожно высоким уровнем успешности (87 % по данным исследования Стэнфорда)
 
Как усилить безопасность?
- Повышение осведомлённости и обучение пользователей: первая линия защиты от атак — это бдительность человека.
 - Многофакторная аутентификация (MFA): дополнительные методы аутентификации (например, токены или биометрия) значительно снижают риски несанкционированного доступа.
 - Поведенческий анализ и обнаружение аномалий в режиме реального времени.
 - Усиление защиты данных.
 - Регулярное тестирование на уязвимости и обновления.
 - Использование ИИ в кибербезопасности: системы предотвращения вторжений (IPS), интеллектуальные межсетевые экраны с поддержкой ИИ, платформы SIEM.
 - Сегментация сетей и строгие политики доступа.
 - Сотрудничество для улучшения: обмен знаниями о типах атак и уязвимостях, чтобы создавать инструменты для сбора, анализа и обработки этой информации.
 
С OpenLLM France / Europe мы разрабатываем LUCIE, которая нацелена на создание суверенного и безопасного ИИ в противовес закрытым моделям GAFAM.