Новая эра мошенничества: как киберпреступники могут использовать ChatGPT
О ChatGPT и его возможностях не говорит разве что ленивый. Искусственный интеллект становится неотъемлемой частью нашей жизни, помогая в учебе, работе и быту. Тем временем пользователей предупреждают, что чат-боты могут использовать для фишинга, дезинформации и киберпреступности.
Об этом пишет издание Reuters, ссылаясь на Европол.
"Поскольку возможности LLM (больших языковых моделей), таких, как ChatGPT, активно совершенствуются, потенциальная эксплуатация этих типов систем искусственного интеллекта преступниками создает мрачную перспективу", — заявил Европол.
Сферы преступности, где можно использовать ChatGPT
Правоохранительные органы ЕС выделили вредное использование ChatGPT в трех областях преступности:
1. Фишинг
Сообщается, что благодаря способности чат-бота создавать чрезвычайно реалистичный текст, он становится полезным инструментом для целей фишинга (вид интернет-мошенничества, заключающийся в краже конфиденциальных данных пользователей).
Фишинг — практика отправки фальшивого электронного письма с целью заставить пользователей перейти по ссылке, является важнейшей областью применения. В прошлом такие мошенничества легко обнаруживались из-за грамматических или речевых ошибок, в то время как текст, сгенерированный искусственным интеллектом, позволяет выдать себя за другого в очень реалистичной манере.
Аналогично мошенничеству онлайн можно придать большее правдоподобие, используя ChatGPT для создания фальшивой активности в социальных сетях.
2. Целенаправленное преследование жертв
ChatGPT может воспроизводить языковые шаблоны, чтобы имитировать стиль речи конкретных лиц или групп, поэтому чат-бот может использоваться преступниками для преследования жертв.
3. Создание и распространение дезинформации
Отмечается, что способность ChatGPT создавать аутентичный текст со скоростью и масштабом делает его идеальным инструментом для пропаганды и дезинформации.
"Это позволяет пользователям генерировать и распространять сообщения, отражающие определенный нарратив, прилагая относительно небольшие усилия", — отметили в Европоле.
Также Европол заявил, что преступники с небольшими техническими знаниями могут использовать ChatGPT для создания вредоносного кода.
Другой риск заключается в том, что ChatGPT и другие крупные языковые модели могут стать доступными в даркнете без каких-либо гарантий и быть обучены на особо вредоносные данные. Тип данных, которыми будут питаться эти системы, и то, как их можно будет контролировать — вот главные вопросы грядущего.
Как распознать онлайн-мошенничество
Мошенничество в интернете можно распознать по следующим признакам:
- неизвестный отправитель;
- подозрительные ссылки и вложения. Избегайте нажатия на подозрительные ссылки, загрузки файлов или открытие вложений от неизвестных отправителей;
- запросы на получение личных данных;
- заманчивые предложения;
- давление и побуждение к выполнению требуемых действий. Чаще мошенники используют ощущение срочности, отмечая необходимость ответить быстро, иначе пользователь получит штраф или потеряет возможность что-то выиграть;
- несоответствие отправителя и подлинного домена. Наведя курсор на домен отправителя можно увидеть настоящий адрес электронной почты, с которого отправлено письмо. Если они не совпадают или в основе лежит длинное сочетание случайных символов, вероятно, это мошенники;
- использование актуальных событий.
Не делайте поспешных шагов в Интернете, избегайте передачи личных данных по электронной почте или сообщениям и не открывайте ссылки или вложения от подозрительных отправителей.
Напомним, мы писали, сколько рабочих мест может уничтожить искусственный интеллект.
Также мы рассказывали, что умеет новая версия нейросети GPT-4, чем она лучше предыдущей, для кого она доступна и как ее протестировать.
Читайте Новини.live!