Обмен электронных валют по самому выгодному курсу!
 


Kurbetsoft
Доступно в Google PlayИсследование: искусственный интеллект пишет фишинговые письма эффективнее людей

Языковая модель GPT-3 в сочетании с другими сервисами искусственного интеллекта может использоваться для создания персонализированных фишинговых писем. К такому выводу пришли исследователи из Государственного технологического агентства Сингапура, пишет Wired .

Для создания писем с вредоносными ссылками ученые использовали платформу OpenAI GPT-3 совместно с другими продуктами на базе ИИ, ориентированными на анализ личности. Пропустив через них выходные данные, исследователи разработали конвейер, который обрабатывал и уточнял сообщения перед отправкой.

В ходе эксперимента исследователи разослали 200 людям целевые фишинговые электронные письма, созданные ими самими и искусственным интеллектом. Каждое сообщение содержало безопасные ссылки, которые собирали информацию о кликах.

Они выяснили, что большинство испытуемых чаще переходили по ссылкам в письмах, созданных алгоритмом, чем написанных людьми.

По словам специалиста по кибербезопасности Государственного технологического агентства Юджина Лима, использование ИИ-сервисов снижает входной барьер для злоумышленников и увеличивает потенциальные цели для фишинга.

«ИИ как услуга будет стоить вам пару центов и им действительно легко пользоваться — просто вводите текст и получаете результат. Вам даже не нужно запускать код», — сказал Лим.

Он считает, что таким образом любое электронное письмо с фишинговыми ссылками может быть персонализировано для каждого получателя с минимальными затратами.

Исследователи отметили, что эксперимент является лишь первым шагом. По их словам, размер выборки относительно небольшой, а целевой пул — однородный. Кроме того, все сообщения были созданы сотрудниками офиса, а не внешними злоумышленниками, пытающимися персонализировать тексты без какой-либо информации о жертвах.

Однако полученные данные побудили исследователей глубже задуматься о том, какую роль ИИ сможет сыграть в продвижении целевых фишинговых кампаний.

Напомним, в августе исследователи с помощью «универсального» лица обманули большинство систем распознавания лиц.

В июле ученые сообщили об обнаружении метода незаметного внедрения вредоносного кода в нейросети.

В мае исследователи из Центра кибербезопасности Мэриленда выявили уязвимость в нейронных сетях, увеличивающую их энергопотребление.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!




[vkontakte] [facebook] [twitter] [odnoklassniki] [mail.ru] [livejournal]

Каталог сайтов