В частности, с помощью ИИ киберпреступники могут создавать специальные программы, которые автоматически угадывают пароли чужих учетных записей. Подробности о том, как хакеры используют искусственный интеллект, и о рисках, связанных с их союзом, — в статье «Известий».
опасный инструмент
Сегодня искусственный интеллект — ценный инструмент в любой работе: он использует данные и готовые решения и при правильном обучении может быть хорошим консультантом. Однако сам по себе ИИ абсолютно бессилен — он становится мощным инструментом только в умелых руках, — говорит в интервью «Известиям» главный специалист отдела комплексных систем защиты информации «Газинформсервиса» Дмитрий Овчинников.
«Точный способ применения искусственного интеллекта полностью зависит от опыта и знаний хакера», — поясняет эксперт. — Чем умнее хакер, тем больше возможностей он создает для себя.
По словам руководителя отдела компьютерной криминалистики компании «Ангара Секьюрити» Никиты Леокумовича, многие специалисты в области кибербезопасности считают, что использование нейросетей снизит минимальный порог входа в поле киберпреступности через знания. Судя по всему, хакерам больше не нужно будет пользоваться сторонними продуктами и будут владеть специальными знаниями.
Однако эксперт отмечает, что это не совсем так: обеспечение «правильной работы» вредоносного ПО (ПО) в любом случае потребует знаний со стороны оператора, а значит, учиться надо еще. Однако использование ИИ позволяет киберпреступникам проводить атаки с меньшими затратами.
«Хакеры могут использовать ИИ для автоматизации процессов взлома, поиска уязвимостей или поиска новых целей для атак», — говорит Екатерина Старостина, эксперт по кибербезопасности Webmonitorex. «Умные алгоритмы и машинное обучение позволяют хакерам работать более эффективно и быстрее обнаруживать уязвимости или проникать в системы.
Автоматизация взлома
Не исключено, что в обозримом будущем благодаря использованию ИИ можно будет взломать некоторые сервисы нажатием одной кнопки — такой прогноз дает Дмитрий Овчинников в интервью «Известиям». По словам эксперта, уже существует дистрибутив ОС Kali Linux, который содержит множество инструментов для взлома паролей и проведения пентестов (тестов на проникновение).
«Некоторые из этих инструментов не требуют специальной подготовки или навыков, поэтому их могут использовать даже начинающие хакеры», — отмечает эксперт.
Наибольший интерес для киберпреступников ИИ представляет именно как средство автоматизации процессов взлома. Сегодня хакеры проводят собственную разведку открытых источников информации и создают таблицы паролей, которые могут использовать пользователи. Но использование нейронных сетей открывает перед киберпреступниками совершенно новые перспективы.
Дмитрий Овчинников приводит пример: хакер дает искусственному интеллекту адрес и логин сайта, и он начинает самостоятельно собирать данные из Сети. Помимо прочего, ИИ ищет почтовые ящики пользователей, номера их автомобилей, сверяет личные данные в социальных сетях, устанавливает семейные связи, узнает даты рождения детей и супругов — и на основе этой информации предлагает данные для брутфорса. пароль.
«Такое использование искусственного интеллекта создаст очень высокие риски для пользователей», — отмечает специалист.
Однако Никита Леокумович поясняет, что нейросеть действительно может ускорить процесс взлома, но только при соблюдении двух условий: во-первых, она хорошо обучена, а во-вторых, пароль простой — то есть, скажем, состоит только из цифр. или письма. , содержит менее 10 символов, а также включает персональные данные самого пользователя или его близких. Если пароль действительно сложный, состоящий из строчных и прописных букв, цифр и символов, то даже обученная нейронная сеть потратит на его взлом миллиарды лет.
Индивидуальный подход
При этом еще один важный аспект использования ИИ киберпреступниками связан с индивидуальным подходом к потенциальным жертвам. По словам Никиты Леокумовича, благодаря нейросетям хакерам больше не нужно привлекать OSINT-специалистов и психологов для распознавания и анализа аудитории, отдельного человека или компании, являющейся целью атак. С этим легко справится нейросеть, проанализировав социальные сети и результаты поиска.
«Результатом анализа будет персонифицированное фишинговое письмо, в котором, в том числе, могут быть отредактированные фото и видео (дипфейки), которые выглядят как настоящие непрофессионалы», — поясняет источник «Известий».
Ксения Рысаева, руководитель отдела мониторинга и аналитики Innostage, соглашается с тем, что нейросети позволяют модернизировать методы проведения DDoS-атак или фишинговых рассылок. Например, с помощью искусственного интеллекта можно анализировать новостные программы из разных регионов, а затем использовать их для генерации текстов для фишинговых рассылок.
ИИ также помогает хакерам создавать привлекательный контент для жертв, используя методы персонализации и интеллектуального анализа данных. Кроме того, искусственный интеллект может использоваться для создания поддельных профилей в социальных сетях, которые используются киберпреступниками, чтобы обманом заставить пользователей получить доступ к их конфиденциальным данным.
Однако Дмитрий Овчинников подчеркивает, что привлекательность контента зависит только от вкусовых характеристик пользователей, формируемых средствами массовой информации, и лучше понимать человеческие эмоции и «зацепки» может только живой человек. Что же касается искусственного интеллекта, то он может только сочинять и переделывать уже созданное, но не создавать что-то новое.
«На мой взгляд, такой творческий процесс, как создание привлекательного для пользователей контента, в среднесрочной перспективе будет недоступен ИИ», — считает эксперт. «Но в дальнейшем, по мере повышения обучаемости и снижения общего вкусового уровня пользователей, искусственный интеллект может использоваться для этой цели, в том числе киберпреступниками.
цифровое отравление
Третья область, в которой киберпреступники могут использовать ИИ, — это атаки с отравлением данных. По словам Дмитрия Овчинникова, они направлены на нарушение целостности данных, создание фейков и другие манипуляции. Такие атаки используются в ситуациях, когда есть определенный объем данных, которые можно быстро обработать, выявить зависимости, а затем сгенерировать новые поддельные данные, в которых будет сложно обнаружить аномалии.
«Например, при взломе хранилища данных, в котором аккумулируются персональные данные клиентов банка, возникают угрозы манипулирования кредитными обязательствами или вывода денег со счетов кибермошенников», — поясняет Никита Леокумович.
Как говорит Екатерина Старостина в интервью «Известиям», «отравление данных» опасно тем, что негативно сказывается на их достоверности и целостности. Это, в свою очередь, создает риски неправильных решений или неправильных выводов. Хакеры могут использовать эти атаки для манипулирования информацией или дезориентации систем, что может нанести значительный ущерб, особенно в сфере финансов, политики или информационной безопасности.
В целом, по мнению экспертов, киберпреступность сегодня развивается вместе с эволюцией нейронных сетей. По словам Дмитрия Овчинникова, очень вероятно, что в будущем модели ИИ, обученные опытными хакерами, будут продаваться. При этом степень опасности для внешнего мира будет зависеть от качества их подготовки. Эксперт отмечает, что искусственный интеллект можно использовать как для атаки, так и для защиты — это подходящий инструмент для решения определенных задач. В основном эти задачи состоят из работы с данными: их сбора, обработки и первичной интерпретации.
«ИИ будет активно использоваться для автоматизации задач, что значительно расширит арсенал противоборствующих сторон», — заключает Дмитрий Овчинников. «Как только киберпреступники найдут способ использовать это себе во вред, через короткое время специалисты придумают меры противодействия. И такое соревнование между мечом и щитом будет продолжаться очень долго.