Генеративный ИИ: возможность или угроза?

Генеративный ИИ: возможность или угроза?

Отчёт о выступлении нашего директора программы ИИ на форуме Cybersec Cloud на тему:
«Искусственный интеллект: какие риски и какую защиту ожидать от этой технологии? Какие риски связаны с генеративным ИИ и какие контрмеры следует внедрить?» вместе с Фабрисом Фроссаром.

Во время этого семинара Анджей Нойгебауэр осветил ключевые вопросы, связанные с кибербезопасностью в контексте генеративного ИИ. В мире, где искусственный интеллект развивается стремительными темпами, крайне важно понимать как возможности, так и угрозы, которые представляет эта технология.


Генеративный ИИ: возможность или угроза?

Генеративный ИИ — это мощная технология, которая может использоваться как в благих целях, так и в злонамеренных. Она помогает улучшать кибербезопасность, но при этом может стать опасным инструментом в руках киберпреступников


Усиление угроз благодаря генеративному ИИ
  • Ультрареалистичный фишинг: создание мошеннических писем без ошибок, точно имитирующих стиль общения жертвы
  • Аудио- и видео-дипфейки: подмена личности с целью обмана компаний и учреждений
  • Автоматизация атак: создание вредоносных скриптов на основе простых команд на естественном языке
  • Массовые кибератаки: одновременное использование уязвимостей в больших масштабах с тревожно высоким уровнем успешности (87 % по данным исследования Стэнфорда)

Как усилить безопасность?
  • Повышение осведомлённости и обучение пользователей: первая линия защиты от атак — это бдительность человека.
  • Многофакторная аутентификация (MFA): дополнительные методы аутентификации (например, токены или биометрия) значительно снижают риски несанкционированного доступа.
  • Поведенческий анализ и обнаружение аномалий в режиме реального времени.
  • Усиление защиты данных.
  • Регулярное тестирование на уязвимости и обновления.
  • Использование ИИ в кибербезопасности: системы предотвращения вторжений (IPS), интеллектуальные межсетевые экраны с поддержкой ИИ, платформы SIEM.
  • Сегментация сетей и строгие политики доступа.
  • Сотрудничество для улучшения: обмен знаниями о типах атак и уязвимостях, чтобы создавать инструменты для сбора, анализа и обработки этой информации.


С OpenLLM France / Europe мы разрабатываем LUCIE, которая нацелена на создание суверенного и безопасного ИИ в противовес закрытым моделям GAFAM.