Среда, 24 апреля, 2024

16+

25 стран приняли участие в саммите, посвященном безопасности ИИ в Лондоне

Время на чтение 3 мин.

Великобритания ищет свое место в мире после «брекзита». И, похоже, премьер-министр Риши Сунак, идейный вдохновитель AI Safety Summit, считает, что его страна может объединить усилия мирового сообщества.

— Впервые страны согласились с тем, что нам нужно не только независимо, но и коллективно рассматривать риски, связанные с передовыми технологиями ИИ,заявила Мишель Донелан, глава департамента науки, инноваций и технологий в правительстве его величества.

25 стран приняли участие в саммите, посвященном безопасности ИИ в Лондоне
Выступление Мишель Донелан на саммите. Фото: gov.uk

Саммит проходил 1–2 ноября в Блэтчли-парке, где во время Второй мировой войны взламывали шифры Германии и ее союзников. Мероприятие посетили как специалисты в области ИИ, включая сооснователя Google Deepmind Мустафу Сулеймана, основателя OpenAI Сэма Альтмана и Илона Маска, так и политики, среди которых — вице-президент США Камилла Харрис, министр науки и технологий Китая У Чжаоэй и официальные лица ЕС.

По итогам саммита страны-участницы подписали «Декларацию Блэтчли», в которой обозначили, что страны мира должны работать сообща, чтобы выработать подходы к контролю ИИ.

Быстрое развитие ИИ, а особенно генеративных нейросетей, вызывает беспокойство как у технологических экспертов, так и у политиков. Например, в ЕС уже готовятся регулировать ИИ, а Джо Байден два дня назад подписал указ о безопасном, защищенном и надежном ИИ. В последнем, в частности, говорится:

Многие риски, возникающие из-за ИИ, по своей природе носят международный характер, и поэтому их лучше всего устранять посредством международного сотрудничества. существующие международные форумы и другие соответствующие инициативы для развития сотрудничества в целях устранения широкого спектра рисков, связанных с ИИ

В этой связи одним из главных итогов саммита стало то, что США, Великобритания, ЕС и Китай договорились о совместной работе над подходами к регулированию ИИ. В «Декларации Блэтчли», подписанной 25 странами-участницами саммита, постулируется два основных направления, в которых необходимо работать международному сообществу. Первое — это выявление рисков, вызывающих всеобщую озабоченность, и их всестороннее изучение. Второе — разработка глобальной политики по нейтрализации этих рисков.

25 стран приняли участие в саммите, посвященном безопасности ИИ в Лондоне
Особняк «Блэтчли-парк». Фото: gov.uk

Если Евросоюз в первую очередь озабочен сохранностью персональных данных и защитой права на личную жизнь, то другие участники саммита сфокусировались на экзистенциальных проблемах, связанных с ИИ. В частности, с опасениями, что машины со временем смогут достичь большего интеллекта, чем люди, и это приведет к непредвиденным (но, конечно, ужасающим) последствиям.

В то же время политики и технологические боссы расходятся в понимании того, какими должны быть ограничительные меры и как их следует применять.

Я не знаю, какими должны быть разумные правила, но прежде, чем что-то запретить, это нужно изучить

Илон Маск

Политики стремятся перестраховаться, чтобы избежать даже минимальных рисков, в то время как технологические компании опасаются, что «перерегулирование» не позволит нейросетям реализовать весь потенциал как технологии.

Следующий саммит по безопасности ИИ запланирован через 6 месяцев в Южной Корее, а третий — еще через полгода во Франции.

Свежие новости

spot_img

Оставьте ответ

Пожалуйста, введите свой комментарий!
Пожалуйста, введите ваше имя здесь