Сегодня компания Google выпустила более функциональную версию Bard, своего генеративного чат-бота с искусственным интеллектом и конкурента ChatGPT, которая теперь позволяет перепроверять ответы, сотрудничать с другими пользователями и, что особенно важно, интегрироваться с собственными приложениями и сервисами Google, включая Gmail, Docs, Drive, Maps, YouTube, Google Flights и Hotels.
Последние доступны через новые расширения Bard Extensions и пока только на английском языке. Впервые анонсированные на выставке Google I/O, расширения не были представлены сразу, поскольку компания хотела убедиться в том, что они обеспечивают безопасную и надежную работу.
«Мы хотели убедиться, что то, как мы предоставляем это пользователям, полностью соответствует трем нашим принципам, связанным с доверием к людям, использующим Bard, а именно: прозрачность, выбор и контроль», — объясняет Джек Кравчик, руководитель отдела продуктов Bard. «Поэтому мы собираемся начать с того, что когда Bard взаимодействует с Gmail, Drive и Docs, то только тогда, когда пользователь дал свое согласие на это, — говорит он. И пользователь может отозвать это разрешение в любой момент».
Кроме того, компания стремится к тому, чтобы пользователи понимали, как эти данные используются и не используются. Если вы используете личные данные, полученные из Gmail, Google Drive или Docs, то эта информация не будет использоваться для обучения с применением подкрепления. По словам Кравчика, это очень важный элемент для сохранения доверия пользователей.
Он отмечает, что выбор использования Gmail в Bard не дает Bard возможности хранить весь почтовый ящик Gmail. Вместо этого, в зависимости от конкретного запроса, он может быть направлен на поиск информации в вашем почтовом ящике, используя свою способность генерировать вызов Gmail для поиска того, о чем вы просили. Помимо того, что система не используется для обучения с подкреплением, Google утверждает, что никто из проверяющих не увидит электронной почты, к которой обращается Bard.
«Это похоже на то, как мы в прошлом подходили к фильтрации спама в службах Google — ваши личные данные не считываются, поскольку мы считаем, что доверие — это важнейшая основа, на которой мы строим свою работу», — поясняет Кравчик. «Пока еще рано, и из-за отсутствия этого теряется некоторая точность, некоторые более широкие возможности. Но мы считаем, что это длинная дуга, чтобы сделать эту технологию полезной. И мы бы предпочли сделать это правильно. Сделать это с позиции построения доверия с самого начала».
Однако после подключения расширений вы можете попросить Барда прочитать ваши важные электронные письма и подвести итоги того, что вы пропустили. Однако при дальнейшей доработке этой функции могут возникнуть проблемы. Например, она не сможет найти членов вашего винного клуба и даты их следующей доставки, если в электронном письме нет конкретного слова «винный клуб».
Новые расширения также могут работать совместно. Например, если вы планируете поездку с друзьями, Bard может извлечь из потока Gmail даты, наиболее подходящие для всех, а затем в режиме реального времени просмотреть информацию о рейсах и отелях, получить карту проезда к аэропорту и даже посмотреть видеоролики на YouTube о том, чем можно заняться в месте назначения, — и все это в одном разговоре.
В тех расширениях, которые не используют персональные данные — YouTube, Flights, Hotels и Maps, — вы будете подключены автоматически, но можете отказаться. По словам компании, в перспективе она хочет поддерживать сторонние сервисы по той же модели расширений, но сначала хочет протестировать и изучить эту функцию на собственных сторонних приложениях и сервисах.
Еще одна новая функция — обновление кнопки «Google it» в Bard для перепроверки ответа чатбота. По словам Google, это усовершенствование связано с работой Google Research и DeepMind. При нажатии на значок «G» каждое предложение, написанное Bard, проверяется с помощью поиска Google на предмет наличия в Интернете материалов, подтверждающих ответ. После оценки высказывания можно нажать на выделенные фразы, чтобы узнать больше через Google Search.
Однако если ИИ не уверен, предложение может быть выделено оранжевым цветом, чтобы показать, что он знает, что эта часть ответа может быть неверной. Это должно помочь пользователям лучше понять, когда ИИ «галлюцинирует», то есть выдает ответ, основанный на ложной информации. Это проблема современного ИИ, который может уверенно выдавать результат, даже не имея подтверждающих данных.
«Конечно, мы хотим быть прозрачными, когда не уверены в своих силах или даже когда ошибаемся, — говорит он. Эта функция также поможет искусственному интеллекту совершенствоваться, поскольку он узнает, в чем ошибается, из отзывов пользователей и затем использует это для создания более совершенной модели».