Американские компании OpenAI, Anthropic и Cohere, специализирующиеся на разработке искусственного интеллекта, провели конфиденциальные дипломатические переговоры с китайскими экспертами в области ИИ.
Информацию об этом предоставила Financial Times, ссылаясь на свои источники, присутствовавшие на встречах в Женеве в июле и октябре 2023 года. Ученые и эксперты из американских компаний в сфере ИИ встречались с представителями Университета Цинхуа и других китайских государственных учреждений.
В свете общей тревоги по поводу распространения дезинформации через искусственный интеллект и возникающих в связи с этим угрозах обществу, стороны обсудили риски, связанные с развитием технологий ИИ. Они также заявили о поощрении инвестиции в исследования по безопасности ИИ с целью нахождения научного пути для безопасного развития более сложных технологий в этой области. Переговоры также касались возможного сотрудничества в области ИИ и предложений по политическим инициативам.
Один из участников переговоров подчеркнул важность соглашения между участниками, отмечая, что установление международных стандартов безопасности ИИ требует широкого консенсуса. Вслед за этими встречами в Женеве были организованы с ведома Белого дома и с участием официальных представителей Великобритании и Китая, как утверждается источниками.
Интересно, что китайские ИИ-гиганты, такие, как ByteDance, Tencent и Baidu, не участвовали в переговорах, в то время как Google DeepMind была проинформирована о ходе дискуссии, но не принимала в ней участие. Этот факт может указывать на неоднозначное отношение китайских компаний к подобным инициативам.
В марте 2023 года руководители SpaceX, Tesla и X Илон Маск, а также сооснователь Apple Стив Возняк и более тысячи экспертов по ИИ подписали открытое письмо, призывая приостановить разработку продвинутого ИИ до создания и проверки независимыми экспертами общих протоколов безопасности. Документ разработан Институтом будущего жизни (Future of Life Institute).