
Особенную угрозу представляют бесплатные чат-боты
В России набирает обороты новый вид мошенничества. Теперь аферисты используют не только социальную инженерию (запугивание и угрозы), но и искусственный интеллект.
Как обезопасить себя от дипфейков и утечки данных — объяснил Владислав Тушканов, руководитель группы исследований технологий машинного обучения «Лаборатории Касперского».
Например, злоумышленники применяют ИИ на различных этапах кибератаки — от первичного контакта с потенциальной жертвой до разработки вредоносного кода.
«Мы регулярно фиксируем использование ИИ для создания фишинговых страниц, написания программ-вымогателей (например, FunkSec), а также инструментов для продвинутых целевых атак, подобных операциям группы Bluenoroff», — рассказал E1.RU Владислав Тушканов.

Развитие технологий упростило создание дипфейков. Раньше мошенники чаще эксплуатировали образы знаменитостей, а сейчас выдают себя за руководителей компаний или коллег жертвы.
Дипфейк — поддельные видео- или аудиосообщения, созданные с помощью искусственного интеллекта. Мошенники часто используют их для кражи данных пользователей и их финансовых средств.

Порядок сбора, хранения и обработки данных описан в пользовательском соглашении: обращайте на это внимание при использовании ИИ-сервисов
Не только мошенники, но и обычные граждане стали чаще пользоваться ИИ, и в этом кроется еще одна опасность. Даже на официальных ИИ-сервисах происходят утечки данных конфиденциальной информации.
«Причинами могут быть как кибератаки, так и ошибки в архитектуре или конфигурации сервисов, — продолжил эксперт. — Крупные ИТ-компании следят за безопасностью, но пользователи нередко обращаются к малоизвестным сервисам или бесплатным версиям чат-ботов, уровень защиты которых может быть ниже».

Например, так называемые «сервисы-прослойки» — неофициальные Telegram-боты, которые используют, если доступ к нейросети ограничен по региону или когда требуется более удобный интерфейс.
«Проблема в том, что такие сервисы часто не раскрывают информацию о политике конфиденциальности. Если их создатели окажутся недобросовестными, данные пользователя могут быть скомпрометированы», — добавил Владислав Тушканов.
Важно помнить: всё, что пользователь вводит в чат-бот, теоретически может использоваться провайдером сервиса — например для обучения и улучшения моделей.
«Мы сталкивались с примером, когда сайт предлагал доступ к ChatGPT, и пользователь получал возможность работать с ботом. Однако параллельно на этом же ресурсе публиковались переписки пользователей в открытом доступе, — обратил внимание эксперт. — Поэтому при работе с ИИ-сервисами важно задавать себе вопрос: является ли информация, которую я загружаю, конфиденциальной и критичной для меня или моей компании?»
Не передавайте чат-ботам конфиденциальные корпоративные данные — из-за потенциальных утечек они могут стать публичными. Есть еще несколько базовых правил безопасности.
Включайте везде двухфакторную аутентификацию.
Не переходите по подозрительным ссылкам.
Применяйте уникальные сложные пароли и менеджеры паролей.
В случае аудио- и видеодипфейков проверяйте, действительно ли человек на записи является тем, за кого себя выдает, — особенно если речь идет о финансовых действиях.

















Достижения
Твой первый
Написать первый комментарий
Первая десятка
Написать 10 комментариев
Первая сотка
Написать 100 комментариев