Киберпреступники используют ИИ-инструменты в своих интересах

Киберпреступники используют ИИ-инструменты в своих интересах

В совместном исследовании Европола, ЮНИКРИ и Trend Micro описывается весь спектр существующих и возможных угроз с использованием ИИ, а также способы борьбы с ними.

Компания Trend Micro, Европол и Межрегиональный Научно-исследовательский институт ООН по вопросам преступности и правосудия (ЮНИКРИ) подготовили совместный доклад, посвященный использованию искусственного интеллекта в противозаконных действиях «Эксплуатация ИИ: как киберпреступники используют возможности искусственного интеллекта и машинного обучения и злоупотребляют ими» (“Exploiting AI: How Cybercriminals Misuse and Abuse AI and ML”). В докладе описаны существующие сценарии использования ИИ в преступных целях, возможные варианты развития инструментов киберпреступников в будущем, а также методы борьбы с ними, которые будут полезны представителям правоохранительных органов, правительственных и других организаций.

«ИИ способен помочь миру повысить эффективность процессов в самых различных областях, уровень их автоматизации и общей автономности. Сейчас общественность все больше беспокоят сценарии неправомерного использования ИИ, поэтому мы должны открыто говорить о возможных угрозах, но и не забывать при этом о потенциальных преимуществах технологий искусственного интеллекта, — отметил Эдвардас Шилерис (Edvardas Šileris), глава Центра по борьбе с киберпреступностью, входящего в состав Европола. — Этот доклад дает нам возможность предвидеть возможные злоупотребления ИИ и методы его применения в противозаконных целях, а также своевременно предотвращать эти угрозы. Только так мы сможем полностью раскрыть потенциал технологии и извлечь выгоду из её внедрения в мире».

В отчете говорится о том, что киберпреступники будут использовать ИИ и как вектор, и как поверхность атаки. В настоящее время дипфейки (Deep Fakes) остаются наиболее известным сценарием применения ИИ в качестве вектора атаки. Однако, по мнению авторов доклада, в будущем потребуются новые технологии проверки данных, которые помогут бороться с кампаниями дезинформации и попытками вымогательства, а также угрозами, нацеленными непосредственно на массивы данных ИИ.

Вот всего несколько примеров использования ИИ в преступных целях:

  • крупномасштабные и правдоподобные атаки с использованием социальной инженерии;
  • вредоносное ПО для уничтожения документов, которое повышает эффективность атак киберпреступников;
  • обман систем распознавания изображений и голоса;
  • помощь в поиске целей и уклонении от систем защиты при атаках с применением программ-вымогателей;
  • «загрязнение» массивов данных за счёт выявления слепых зон в правилах обнаружения.

«Применение ИИ начинает оказывать вполне реальное влияние на наш мир, и становится ясно, что эта технология станет одной из фундаментальных в будущем человечества, — отметил Ираклий Беридзе (Irakli Beridze), руководитель Центра ИИ и робототехники ЮНИКРИ. — Однако угроза злонамеренного использования ИИ не менее реальна для общества, чем польза от его применения. Для нас большая честь работать с Европолом и компанией Trend Micro и совместно пролить свет на “темную сторону” технологий искусственного интеллекта, чтобы стимулировать дальнейшее обсуждение этой важной темы».

В докладе также говорится о том, что уже сейчас разрабатываются системы на базе ИИ, которые должны повысить эффективность вредоносного ПО и препятствовать работе антивирусов и технологий распознавания лиц.

«Киберпреступники всегда первыми внедряли новейшие технологии, и ИИ не исключение. В нашем докладе говорится, что ИИ уже используется для подбора паролей, взлома CAPTCHA и клонирования голоса, а в разработке находится еще немало инновационных инструментов, — отметил Мартин Рёслер (Martin Roesler), руководитель подразделения Trend Micro по исследованию перспектив развития угроз. — Мы гордимся тем, что объединили усилия с Европолом и ЮНИКРИ, чтобы повысить осведомленность об этих угрозах и помочь в создании безопасного цифрового будущего для человечества».

В завершение доклада авторы дают несколько рекомендаций:

  • Потенциал технологий искусственного интеллекта необходимо использовать в качестве инструмента борьбы с киберпреступностью, чтобы защитить индустрию ИТ-безопасности и правоохранительные органы в будущем.
  • Необходимо продолжать исследования, которые помогут развивать технологии кибербезопасности.
  • Также необходимо популяризировать и разрабатывать безопасные среды проектирования ИИ.
  • Политическую риторику об использовании ИИ в целях кибербезопасности стоит минимизировать.
  • Рекомендуется активно использовать государственно-частное партнёрство и создавать мультидисциплинарные экспертные группы.