▎Развитие ИИ может спровоцировать кратный рост преступности в 2025 году
Искусственный интеллект (ИИ) становится неотъемлемой частью современного общества, но его стремительное развитие может привести к многократному увеличению преступлений, предупреждают эксперты. Об этом пишет газета “Известия”.
Опасный рост: прогноз на 2025 год
По словам специалистов, к 2025 году число преступлений, совершенных с использованием ИИ, может вырасти в 8–10 раз. Игорь Бедеров, руководитель департамента расследований в компании по защите данных, отмечает, что увеличение фиксируется неофициально — через оценку активности ботов и объемов сгенерированного контента.
“Нейросети обладают встроенной защитой, но злоумышленники обходят ее с помощью промпт-инжиниринга. Например, они могут использовать ИИ для создания инструкций к опасным действиям, скрытых под видом вымышленного сюжета”, — говорит Бедеров.
Киберпреступления нового уровня
Эксперт по высоким технологиям Виктория Береснева утверждает, что ИИ ускоряет автоматизацию атак, в том числе фишинговых рассылок. Алексей Горелкин, генеральный директор компании по информационной безопасности, добавляет:
“До 90% кибергруппировок уже сейчас используют технологии нейросетей и чат-ботов для реализации социальных атак”.
Среди прочих угроз эксперты выделяют создание дипфейков и автоматизированный поиск уязвимостей в цифровых системах.
Роль законодательства и российские реалии
Анатолий Литвинов, специалист в области уголовного права, подчеркивает необходимость ускоренного внесения изменений в законодательство РФ. Они должны касаться ограничений на использование GPT-моделей для создания рецептов кустарного оружия или инструкций по его изготовлению.
Российские сервисы генеративного ИИ отличаются строгими фильтрами и соблюдением декларации об ответственной разработке. Многие компании уже подписали “Кодекс этики в сфере ИИ”.
Первый случай преступления с использованием ИИ
Прецедентом, вызвавшим резонанс, стал случай в Лас-Вегасе 1 января 2025 года. Предполагается, что преступник Мэттью Ливелсбергер использовал ChatGPT для планирования подрыва Tesla Cybertruck у отеля Trump International Hotel.
Профилактика рисков и защита данных
Эксперты рекомендуют гражданам соблюдать осторожность, особенно с личными данными. Для создания “слепка” голоса злоумышленникам достаточно всего 15 секунд записи, а фото с лицом может использоваться для создания реалистичных дипфейков.
Искусственный интеллект несет как возможности, так и риски. Принятие мер по регулированию и повышению цифровой грамотности общества должно стать приоритетом в борьбе с угрозами.