В преддверии AI Action Summit в Париже опубликован International AI Safety Report 2025 – первый глобальный доклад, систематизирующий научные данные о возможностях, рисках и методах регулирования передового ИИ. Документ, подготовленный группой из 100 международных экспертов под руководством лауреата премии Тьюринга Йошуа Бенжио, анализирует угрозы, которые могут представлять передовые модели ИИ.
Доклад стал кульминацией работы, начатой после саммита в Блетчли в 2023 году ( Bletchley Park AI Safety Summit), где 30 стран договорились создать общий научный фундамент для оценки рисков ИИ. В отличие от традиционных отчетов, International AI Safety Report 2025 не предлагает конкретных политических решений, но дает объективную картину существующих угроз и пробелов в научных исследованиях.
ИИ развивается быстрее, чем механизмы его регулирования
Эксперты отмечают беспрецедентно быстрый рост возможностей искусственного интеллекта.
В 2024 году ведущие модели уже превзошли человека по ряду ключевых показателей: точности программирования, абстрактного мышления и скорости обработки информации. Особенно заметен прогресс в создании ИИ, который способен не просто обрабатывать информацию, а самостоятельно формулировать научные гипотезы.
Несмотря на значительные достижения, у этого прогресса есть и обратная сторона. Специалисты выделяют три основные группы рисков, связанных с развитием ИИ:
Злоумышленное использование: от создания дезинформации и фальшивого контента до кибератак и потенциальных биологических угроз.
Технические сбои: включающие ошибки алгоритмов, риски предвзятости и возможную частичную потерю контроля над системами.
Системные риски: трансформация рынка труда, концентрация технологического влияния в руках немногих компаний и серьезные экологические последствия.
Какие угрозы несет ИИ?
Передовые технологии ИИ могут быть использованы в преступных целях, создавая риски как для отдельных людей, так и для целых государств. Эксперты выделяют несколько ключевых угроз, которые требуют срочного внимания.
Фейковый контент и дезинформация
Развитие генеративного ИИ упростило создание правдоподобных текстов, изображений, аудио- и видеоматериалов. Это привело к резкому росту числа поддельных новостей, политической пропаганды, манипуляций общественным мнением и мошеннических схем. Алгоритмы способны имитировать речь известных людей, создавать поддельные видеозаписи с их участием (deepfake) и даже влиять на финансовые рынки с помощью автоматизированных информационных атак. Особенно остро эта проблема стоит в преддверии выборов в ряде стран, где технологии используются для дискредитации политиков и распространения ложной информации.
Киберпреступления
Современные модели демонстрируют все большую способность к поиску уязвимостей в программном обеспечении и автоматизации кибератак. По результатам исследования, нейросети могут не только анализировать код на наличие слабых мест, но и предлагать способы их эксплуатации. Это значительно упрощает работу хакеров и снижает порог входа в киберпреступный мир. Уже зафиксированы случаи использования ИИ для генерации вредоносного кода, автоматического подбора паролей и атак на серверные инфраструктуры. Более того, технологии позволяют обманывать системы биометрической аутентификации, что ставит под угрозу персональные данные миллионов пользователей.
Биологические риски
Особую тревогу вызывают возможности ИИ в области биотехнологий. Некоторые модели уже показали способность генерировать инструкции по созданию токсичных соединений, а также моделировать процессы, связанные с разработкой биологического оружия. В одном из экспериментов искусственный интеллект справился с задачей поиска потенциально опасных химических соединений лучше, чем группа специалистов с доступом к интернету. Эта тенденция заставила ведущие компании пересмотреть уровень угрозы: если раньше считалось, что риски биотерроризма, связанные с ИИ, минимальны, то теперь они оцениваются как средние и требуют дополнительного контроля.
Потеря контроля над ИИ
Хотя современные модели еще не достигли уровня полной автономности, эксперты расходятся во мнениях о том, когда это может произойти. Некоторые ученые утверждают, что даже при текущих темпах развития технологий до создания систем, способных действовать без человеческого вмешательства, остается не менее десятилетия. Другие считают, что уже в ближайшие годы могут появиться мощные ИИ-агенты, обладающие способностью принимать решения, ставить перед собой цели и адаптироваться к новым условиям без участия человека. В таком случае встает вопрос: насколько можно доверять таким системам, и что произойдет, если они начнут действовать вразрез с интересами общества?
Исследование подчеркивает, что все эти угрозы пока находятся на разных стадиях развития, но уже требуют серьезного внимания со стороны регулирующих органов. Технологии не стоят на месте, и чем раньше будут разработаны эффективные механизмы контроля, тем меньше вероятность столкнуться с их неконтролируемыми последствиями.
Безопасность ИИ – вопрос глобального приоритета
В последние годы технологии ИИ совершили качественный скачок: если еще пять лет назад модели с трудом генерировали связные тексты, то сегодня они программируют, разрабатывают научные гипотезы и даже создают потенциально опасные химические соединения. Согласно исследованию, многие эксперты расходятся в оценках сроков появления действительно автономных систем, но уже сейчас ведущие компании вкладывают миллиарды долларов в создание ИИ-агентов, способных действовать без непосредственного контроля человека.
Одним из ключевых вызовов эксперты называют угрозу концентрации мощности ИИ в руках ограниченного числа корпораций. На сегодняшний день крупнейшие ИИ-модели разрабатываются в США, Китае и странах ЕС, а доступ к критически важным ресурсам, таким как вычислительные мощности и специализированные чипы, остается неравномерным. Это может усилить глобальное неравенство и закрепить зависимость менее развитых стран от технологий крупных игроков. Кроме того, эксперты отмечают, что большинство современных исследований в области ИИ проводится частными компаниями, которые могут не учитывать общественные риски и ставить коммерческие интересы выше безопасности.
При этом эффективные механизмы регулирования ИИ все еще находятся в стадии обсуждения. Одной из возможных стратегий исследование называет создание международной системы мониторинга и оценки рисков, которая позволила бы быстрее реагировать на потенциальные угрозы. Также рассматривается идея обязательной сертификации мощных ИИ-моделей перед их выпуском. Такая практика уже обсуждается в ряде стран, и в будущем может стать международной нормой. Однако здесь возникает вопрос: как определить, какие модели требуют особого контроля? Современные технологии ИИ-развиваются настолько быстро, что установленные сегодня критерии могут устареть уже через год. Кроме того, некоторые эксперты опасаются, что чрезмерное регулирование замедлит инновации и приведет к монополизации отрасли крупными игроками, способными выполнять сложные требования регуляторов.
В ряде стран уже вводятся первые элементы такой системы: например, ЕС продвигает AI Act, а США разрабатывают рекомендации для разработчиков ИИ. Однако без глобального сотрудничества эти меры могут оказаться недостаточными, поскольку технологические гиганты могут просто переместить разработку в юрисдикции с менее строгими правилами.
Вопрос безопасности ИИ остается открытым, и решения, принятые в ближайшие годы, станут определяющими. Однако при всех рисках передовые технологии приносят ощутимую пользу: ускоряют научные открытия, помогают в разработке новых лекарств и способствуют поиску решений для глобальных проблем, таких как изменение климата и нехватка ресурсов. Важно не только предотвращать возможные угрозы, но и направлять потенциал ИИ на благо общества.