Последнее обновление: 26.04.2024 17:22

Великобритания, США, ЕС и Китай подписали первую декларацию об опасности AI

Великобритания, США, ЕС, Австралия и Китай согласились с тем, что искусственный интеллект представляет потенциально катастрофическую опасность для человечества, заключив первую международную декларацию, посвященную этой быстрорастущей технологии.

Двадцать восемь правительств подписали так называемую декларацию Блетчли в первый день саммита по безопасности ИИ, организованного правительством Великобритании. Страны договорились о совместной работе над исследованиями безопасности ИИ, даже несмотря на признаки того, что США и Британия конкурируют за лидерство в разработке новых правил.

Британский премьер Риши Сунак приветствовал эту декларацию, назвав ее "совершенно невероятной".

В своем выступлении на саммите премьер-министр добавил: "Ничто так не изменит будущее наших детей и внуков, как технологический прогресс, такой как искусственный интеллект. Мы обязаны обеспечить безопасное и ответственное развитие ИИ, осознавая риски, которые он несет, на достаточно ранней стадии этого процесса".

"Впервые мы имеем страны, которые соглашаются с тем, что нам нужно не только независимо, но и коллективно рассматривать риски, связанные с ИИ", – сказала Мишель Донелан, министр технологий Британии.

Коммюнике знаменует дипломатический успех Великобритании и, в частности, Сунака, который решил провести саммит этим летом после того, как обеспокоился тем, что модели искусственного интеллекта стремительно развиваются без присмотра.

Донелан открыла саммит, сказав своим коллегам-участникам, что развитие ИИ "нельзя оставлять на волю случая, пренебрегать им или отдавать на откуп частным игрокам".

На сцене к ней присоединились министр торговли США Джина Раймондо и вице-министр науки и технологий Китая Ву Чжаохуэй, что стало редким проявлением глобального единства.

Южная Корея согласилась провести еще один подобный саммит через полгода, а Франция – через год.

Однако пока что международное сообщество не имеет единого мнения относительно того, как должен выглядеть глобальный набор правил в сфере ИИ или кто должен их разрабатывать.



<Октябрь 2023
ПнВтСрЧтПтСбВс
2526272829301
2345678
9101112131415
16171819202122
23242526272829
303112345
Ноябрь 2023>
ПнВтСрЧтПтСбВс
303112345
6789101112
13141516171819
20212223242526
27282930123
45678910
Экономика