По оценкам экспертов по кибербезопасности, к 2025 году количество преступлений, для совершения которых злоумышленники используют искусственный интеллект (ИИ), значительно увеличится. По мере развития ИИ будут развиваться и преступные методы.
По оценкам экспертов, в этом году их будут использовать около 90% нелегальных кибергруппировок.
Атаки могут затронуть не только киберпространство, но и другие стороны жизни. В качестве примера эксперты приводят взрыв заминированного автомобиля в Лас-Вегасе в начале января — для подготовки к этому преступлению использовался ChatGPT. Шериф Лас-Вегаса Кевин МакМахилл отмечает, что это первый случай в истории, когда в США преступление готовится с использованием чат-бота.
Глава следственного управления Т.Хантера Игорь Бедеров сообщает, что официальные органы не фиксируют, насколько с каждым годом увеличивается количество преступлений, совершенных с помощью ИИ.
Он [прирост] примерно определяется количеством ботов и контентом, который они генерируют», — добавляет Игорь Бедеров. – В 2025 году рост этих преступлений может увеличиться в восемь, а то и в десять раз по сравнению с прошлым годом.
Виктория Береснева, директор АНО Спортивно-методического центра и эксперт в области высоких технологий, считает, что глобальный уровень преступности благодаря ИИ может увеличиться благодаря автоматизации и новым возможностям персонализации атак:
Киберпреступники начнут использовать технологии для осуществления более сложных атак, что потребует новых методов защиты и изменений в законодательстве и программном обеспечении для борьбы с этим видом преступлений.
Хотя ИИ не способен проводить беспилотные атаки, он легко может писать фишинговые электронные письма. В 2025 году произойдет значительный рост, и инструменты искусственного интеллекта могут стать повсеместными для злоумышленников. Алексей Горелкин, генеральный директор Phishman, отмечает, что особенно это актуально для преступников, использующих для своих атак методы социальной инженерии.
Технологии нейронных сетей и чат-ботов могут использовать до 90% всех кибергрупп, обогащающихся с помощью социальной инженерии, добавляет эксперт. – Однако подсчитать общее количество будет крайне сложно.
По мнению IT-эксперта Дмитрия Штаненко, главная опасность заключается в том, что пользователи могут узнать из инструкций чат-бота, как создавать оружие, взрывные устройства и химические соединения, чтобы использовать их в террористических целях.
Кроме того, в 2025 году увеличится количество утечек данных. Действительно, организации используют ИИ повсеместно. Более трети опрошенных сотрудников признались, что использовали такие инструменты без ведома работодателя.
Помните, что рынок искусственного интеллекта продолжает развиваться. Так, T-bank открыл доступ к языковой модели с 32 миллиардами параметров — T-Pro, а OpenAI анонсировала языковые модели нового поколения o3 и o3-mini. А исследование ВЦИОМ показало, что 94% россиян знают об искусственном интеллекте.
Источник: Новости