Как кибер-мошенники пытаются заставить инструменты искусственного интеллекта платить

Сторонники искусственного интеллекта говорят, что его потенциал безграничен. Но киберпреступники также могут использовать это в своих интересах.

Аналитики объяснили AFP, как технология может увеличить риск онлайн-преступлений.

Фишеры электронных писем

Чат-боты являются самыми известными из всех инструментов искусственного интеллекта благодаря безудержному успеху ChatGPT и многих других, появившихся впоследствии, не в последнюю очередь Bard от Google.

Фишинг является наиболее распространенной формой кибермошенничества, и в нем участвуют преступники, выдающие себя за компанию или частное лицо, отправляющие пакеты электронных писем, содержащих ссылки на поддельные веб-сайты или вредоносное ПО.

Эти два мира уже начинают сталкиваться: киберпреступники обмениваются советами на онлайн-форумах о наилучших способах заставить чат-ботов генерировать фишинговые электронные письма.

Крупные игроки блокируют пользователей от создания подобных электронных писем, поэтому разработчики разработали программы, направленные на создание фишинговых сообщений, в том числе FraudGPT и WormGPT.

Эффективность этих инструментов еще предстоит проверить, и Жером Биллуа из консалтинговой фирмы Wavestone сказал AFP: «Мы только в самом начале».

Эксперты говорят, что главное умение чат-ботов для фишинговых банд — генерировать достаточно чистую прозу.

Одним из явных признаков фишингового электронного письма уже давно является неправильная орфография и пунктуация.

«Искусственный интеллект ускоряет темп атак», — сказал Биллуа.

ФБР заявило, что в прошлом году получило 300 497 жалоб на фишинговые атаки, в результате чего были понесены убытки на сумму 52 миллиона долларов.
Атака клонов

Ранее в этом году мать из США Дженнифер Дестефано объяснила, как ей позвонила ее дочь с мольбой о помощи, прежде чем похититель приказал ей заплатить выкуп в размере 1 миллиона долларов.

«Я ни на секунду не сомневалась, что это была она», — сказала она местным СМИ.

Только голос был имитацией, сгенерированной искусственным интеллектом, и Дестефано быстро разгадал уловку.

Но это указывает на риск того, что в будущем при телефонных или видеозвонках будут появляться поддельные изображения близких или коллег — разработка, которая может стать золотой жилой для мошенников.

С помощью записи голоса человека продолжительностью всего несколько секунд онлайн-инструменты могут создать имитацию, способную обмануть сотрудников или друзей.

Жером Саиз, основатель французской разведывательной консалтинговой компании OPFOR, сказал, что «целая индустрия мелких мошенников», уже поднаторевших в вымогательстве данных кредитных карт с помощью текстовых сообщений, вероятно, начнет использовать такие инструменты.

Он сказал AFP, что такие мошенники часто были молоды и хорошо владели техническими инструментами.

Руководство по программированию

Одним из хваленых талантов чат-ботов, таких как ChatGPT, является их способность генерировать сносный компьютерный код.

Мошенники могут использовать эти навыки для создания вредоносного ПО, способного заблокировать компьютер жертвы или получить доступ к файлам или учетным записям.

В Интернете есть утверждения о том, что новое поколение чат-ботов, созданных на заказ, способно выполнять такого рода операции, но убедительных доказательств найти трудно.

Чат-боты, безусловно, могут выявлять недостатки в существующем коде и даже генерировать вредоносный код, но они не могут выполнить его напрямую.

Саиз сказал, что он может видеть, как искусственный интеллект помогает мошенникам, у которых мало таланта, стать более квалифицированными — своего рода репетитором по программированию.

«Но тот, кто начинает с нуля, не собирается заставлять ChatGPT кодировать для него вредоносное ПО», — сказал он.

Саиз, которому обычно звонят, когда что-то серьезное идет не так, сказал, что он не видел никаких доказательств того, что в каком-либо из его дел за последний год был задействован искусственный интеллект.

Шон Сербер из американской фирмы по кибербезопасности Tanium столь же осторожен.

«Большая часть беспокойства по поводу того, как генеративный ИИ повлияет на риски для бизнеса, основана на страхе перед неизвестным, а не на конкретных угрозах», — сказал он.