Когда в феврале финансируемая Microsoft лаборатория OpenAI запустила ChatGPT, миллионы людей практически в одночасье осознали то, что профессионалы в области технологий понимали уже давно: Современные инструменты искусственного интеллекта достаточно развиты, чтобы изменить повседневную жизнь, а также невероятно широкий спектр отраслей. Такие понятия, как большие языковые модели (БЯМ) и обработка естественного языка, стали частью нашей жизни.
Однако вместе с центром внимания приходит и пристальное внимание. Регулирующие органы по всему миру обращают внимание на риски ИИ в области конфиденциальных данных пользователей. Институт Future of Life Institute, поддерживаемый Илоном Маском, собрал подписи лидеров технологического сектора с просьбой сделать шестимесячную паузу в обучении инструментов ИИ, более совершенных, чем GPT-4, на котором работает ChatGPT.
Какими бы сложными ни были юридические и инженерные детали, основные этические вопросы легко усваиваются. Если разработчикам придется взять летний отпуск от работы над усовершенствованием ИИ, будут ли они переключать внимание на обеспечение соблюдения ИИ этических норм и конфиденциальности пользователей? И в то же время, можем ли мы контролировать потенциально разрушительное влияние ИИ на то, куда тратятся рекламные доллары и как монетизируются СМИ?
Google, IBM, Amazon, Baidu, Tencent и целый ряд более мелких игроков работают над созданием — или уже запустили, как в случае с Google, — подобных инструментов ИИ. На развивающемся рынке невозможно предсказать, какие продукты будут доминировать и как будут выглядеть результаты. Это подчеркивает важность защиты конфиденциальности в инструментах ИИ уже сейчас — планирование неизвестного до того, как оно произойдет.
Поскольку индустрия цифровой рекламы с нетерпением ждет применения ИИ для таргетинга, измерения, персонализации и оптимизации креатива и многого другого, лидерам отрасли необходимо внимательно следить за тем, как внедряются эти технологии. В частности, нам нужно будет обратить внимание на использование персонально идентифицируемой информации (PII), возможность случайного или намеренного предвзятого отношения или дискриминации в отношении недопредставленных групп, способ обмена данными через интеграцию с третьими сторонами и соответствие нормативным требованиям во всем мире.
Поиск против ИИ: великое перераспределение расходов?
Что касается рекламных бюджетов, то легко представить, как может выглядеть противостояние «поисковых систем против ИИ». Очень удобно, когда вся информация, которую вы ищете, собрана в одном месте с помощью ИИ, вместо того чтобы перефразировать поисковые запросы и переходить по ссылкам, чтобы найти то, что вы действительно ищете. Если мы увидим кардинальные изменения в том, как пользователи находят информацию, то есть если молодые люди примут ИИ как центральную часть цифрового опыта в будущем, поисковые системы без ИИ окажутся под угрозой исчезновения актуальности. Это может оказать большое влияние на стоимость поисковых инструментов и способность издателей монетизировать трафик из поиска.
Поисковые системы остабтся драйвером значительной доли трафика на сайтах издателей, даже с учетом продолжающегося движения издателей к повышению лояльности аудитории через подписку. И теперь, когда реклама пробивает себе дорогу в чат ИИ — Microsoft, например, тестирует размещение рекламы в чате Bing, — издатели задаются вопросом, как поставщики ИИ могут делиться доходами с сайтами, с которых их инструменты получают информацию. Можно с уверенностью сказать, что издатели столкнутся с еще одним набором «черных ящиков» данных из «садов», на которые они полагаются в плане доходов. Чтобы процветать в этом неопределенном будущем, издатели должны вести переговоры, чтобы убедиться, что заинтересованные стороны во всей отрасли понимают, куда мы спешим.
Разрабатывайте процессы с учетом конфиденциальности
Лидеры отрасли должны следить за тем, как они и их технологические партнеры собирают, анализируют, хранят и передают данные для применения ИИ во всех своих процессах. Процесс получения явного согласия пользователя на сбор его данных и предоставление четкого отказа от их использования должен происходить в самом начале взаимодействия с чатом или поиском ИИ. Руководителям следует рассмотреть возможность внедрения кнопок согласия или отказа от использования с инструментами ИИ, которые персонализируют контент или рекламу. Несмотря на удобство и сложность этих инструментов ИИ, их стоимость просто не может быть оплачена рисками для конфиденциальности пользователей. Как показывает история отрасли, мы должны ожидать, что пользователи будут все больше осознавать эти риски конфиденциальности. Предприятиям не следует торопиться с разработкой инструментов ИИ, ориентированных на потребителя, и ставить под угрозу конфиденциальность в процессе.
На данный момент, когда инструменты ИИ от крупных технологических компаний привлекают наибольшее внимание, мы не должны успокаиваться ложным чувством безопасности, что последствия этой эволюции будут проблемой Big Tech. Недавние увольнения, которые мы наблюдаем в крупных технологических компаниях, приводят к большому рассеиванию талантов, что, в свою очередь, приведет к развитию ИИ в более мелких компаниях, которые захватили таланты. А для издателей, которые не хотят работать с очередным «огороженным садом», чтобы выжить, существует дополнительный уровень, помимо критического уровня конфиденциальности, где на карту поставлены их лучшие деловые интересы. Лидеры отрасли должны отнестись к появлению чатов с искусственным интеллектом как к переломному моменту.
Давайте воспользуемся этой возможностью, чтобы подготовиться к безопасному, прозрачному и прибыльному будущему.