Posted 26 февраля, 17:47
Published 26 февраля, 17:47
Modified 28 февраля, 19:29
Updated 28 февраля, 19:29
У большинства пользователей чат-боты, в том числе на основе искусственного интеллекта (ИИ), в первую очередь ассоциируются с различными виртуальными помощниками. Это и чаты для обратной связи на сайтах банков и онлайн-ритейлеров, и «Алиса» с «Салютом» из умных колонок, и ChatGPT, помогающий генерировать картинки и писать статьи и курсовые работы. Но не все знают об обратной стороне «силы» этих помощников. Ведь, как и любую машину, их можно использовать и во благо людям, и во вред.
Дело в том, что изначально чат-боты на основе ИИ настроены не причинять людям ущерб. Однако тот же ChatGPT, доступ к работе с которым получили уже сотни миллионов пользователей по всему миру, — система самообучаемая и призванная удовлетворять интересы своих клиентов. А значит при умелой постановке задач чат-бота можно в темную вывести на создание алгоритмов, способных обманывать людей.
Самый простой пример легкого и даже романтического обмана тысяч доверчивых граждан — нашумевшая в начале этого года история московского программиста Александра Жадана, подобравшего себе с помощью ChatGPT невесту. Ведь побочный ущерб от этой операции был нанесен более чем 5 тыс. девушек, общавшихся с ИИ на сайтах знакомств в поисках любви. Они могли делиться с нейросетью своими фото, например личного свойства. Или какими-то фактами из своей жизни, которые в случае случайного попадания в распоряжение третьих лиц могут стать объектом шантажа или вымогательства.
Но чат-бота не обязательно подводить к сомнительной или мошеннической операции в темную. Известны факты, когда пользователи через чат-бот убеждали нейросеть, что у нее другое имя и соответственно настройки. И механизм защиты людей у ИИ отключался.
Между тем, диапазон применения нейросетей с преступными целями может быть самым широким. Причем исследователи и эксперты говорят как о уже имеющихся способах обмана с помощью ИИ, так и о тех, которые вскорости могут появиться.
Например, самый простой и распространенный на протяжении последнего десятилетия инструмент мошенников в интернете — фишинговые письма. Многие еще помнят, сколько в папках «Спам» в электронной почте было так называемых «нигерийских» писем. Они были написаны на русском языке, но настолько коряво, что сразу вызывали сомнения. Ну не могут даже нигерийские короли или миллионеры обращаться с деловым предложением, не найдя для этого сначала профессионального переводчика. И такая корявость была свойственна не только «нигерийским» письмам, но и любому мошенническому спаму такого рода, поскольку такие сообщения часто писались в одной стране, а распространялись в другой после их машинного перевода.
Однако с появлением нейросетей фишинговые письма, как сообщают эксперты, получили возможность гораздо лучшего исполнения. Поскольку генеративный ИИ сам их сочиняет и локализует в той или иной стране со знанием местных особенностей, в том числе языковых. При правильной настройке он может вести долгую переписку с потенциальной жертвой, добавляя в общение все больше фактов, призванных усыпить бдительность собеседника.
Примерно такой же сценарий с появлением доступных нейросетей стали использовать мошенники и в другом традиционном варианте «развода», массовом в нашей стране. Это звонки по телефону с целью завладения данными банковских счетов или карт жертв. Во-первых, теперь сценарий беседы жулика с «лохом» заранее пишется с помощью чат-бота. В основном для того, чтобы более естественно сломать у того защитную реакцию и подвести к тому моменту, когда мошенник задействует методы социальной инженерии.
Но не только для написания такого сценария используется нейросеть. В последнее время большую популярность получила технология дипфейков, когда с помощью ИИ подделываются голоса и видеоизображения. Пока еще уровень таких подделок не максимально высокий. В частности, голоса «родственников» и «начальников» на том конце телефонного провода все еще слишком механистичны и роботизированы, а их лица на видео делают специально нечеткими, потому что мимика выдает искусственность изображений. Но технология быстро развивается, и уже известны случаи вполне успешного использования образов известных людей в таких операциях — Илона Маска, Олега Тинькова (внесен Минюстом РФ в реестр иноагентов) и других. На днях даже экс-президент США Дональд Трамп обвинил своих оппонентов в том, что те используют технологии дипфейков для того, чтобы показать его широкой публике менее спортивным и подтянутым.
Кроме того, нейросети, и тот же ChatGPT, мошенники используют для создания гораздо менее хитроумных «обманок». Например, для подделки документов, официальных писем, банковских выписок, фотографий и т. п. С помощью ИИ создаются фейковые профили в соцсетях и мессенджерах для того же фишинга. А также для написания положительных и негативных комментариев в карточках товаров в интернет-магазинах для накрутки рейтингов либо борьбы с конкурентами. По свидетельству ряда экспертов, нейросети уже используются и для вброса в публичное пространство дезинформации, в том числе политической. Наконец, нейросети применяют и для организации очень крупных DDoS-атак с использование тысяч компьютеров.
Интересно, что нейросети используются в мире и для предотвращения всех этих преступлений. Но это уже тема для другой статьи.