Великобритания ищет свое место в мире после «брекзита». И, похоже, премьер-министр Риши Сунак, идейный вдохновитель AI Safety Summit, считает, что его страна может объединить усилия мирового сообщества.
— Впервые страны согласились с тем, что нам нужно не только независимо, но и коллективно рассматривать риски, связанные с передовыми технологиями ИИ, — заявила Мишель Донелан, глава департамента науки, инноваций и технологий в правительстве его величества.

Саммит проходил 1–2 ноября в Блэтчли-парке, где во время Второй мировой войны взламывали шифры Германии и ее союзников. Мероприятие посетили как специалисты в области ИИ, включая сооснователя Google Deepmind Мустафу Сулеймана, основателя OpenAI Сэма Альтмана и Илона Маска, так и политики, среди которых — вице-президент США Камилла Харрис, министр науки и технологий Китая У Чжаоэй и официальные лица ЕС.
По итогам саммита страны-участницы подписали «Декларацию Блэтчли», в которой обозначили, что страны мира должны работать сообща, чтобы выработать подходы к контролю ИИ.
Быстрое развитие ИИ, а особенно генеративных нейросетей, вызывает беспокойство как у технологических экспертов, так и у политиков. Например, в ЕС уже готовятся регулировать ИИ, а Джо Байден два дня назад подписал указ о безопасном, защищенном и надежном ИИ. В последнем, в частности, говорится:
Многие риски, возникающие из-за ИИ, по своей природе носят международный характер, и поэтому их лучше всего устранять посредством международного сотрудничества. существующие международные форумы и другие соответствующие инициативы для развития сотрудничества в целях устранения широкого спектра рисков, связанных с ИИ
В этой связи одним из главных итогов саммита стало то, что США, Великобритания, ЕС и Китай договорились о совместной работе над подходами к регулированию ИИ. В «Декларации Блэтчли», подписанной 25 странами-участницами саммита, постулируется два основных направления, в которых необходимо работать международному сообществу. Первое — это выявление рисков, вызывающих всеобщую озабоченность, и их всестороннее изучение. Второе — разработка глобальной политики по нейтрализации этих рисков.

Если Евросоюз в первую очередь озабочен сохранностью персональных данных и защитой права на личную жизнь, то другие участники саммита сфокусировались на экзистенциальных проблемах, связанных с ИИ. В частности, с опасениями, что машины со временем смогут достичь большего интеллекта, чем люди, и это приведет к непредвиденным (но, конечно, ужасающим) последствиям.
В то же время политики и технологические боссы расходятся в понимании того, какими должны быть ограничительные меры и как их следует применять.
Я не знаю, какими должны быть разумные правила, но прежде, чем что-то запретить, это нужно изучить
Илон Маск
Политики стремятся перестраховаться, чтобы избежать даже минимальных рисков, в то время как технологические компании опасаются, что «перерегулирование» не позволит нейросетям реализовать весь потенциал как технологии.
Следующий саммит по безопасности ИИ запланирован через 6 месяцев в Южной Корее, а третий — еще через полгода во Франции.