DynamoFL привлекает $15,1 миллионов для внедрения «совместимых» LLM

Компания DynamoFL, предлагающая программное обеспечение для внедрения больших языковых моделей (LLM) на предприятиях и тонкой настройки этих моделей на конфиденциальных данных, объявила о привлечении 15,1 млн долл. в рамках серии А финансирования, соруководителями которой выступили Canapi Ventures и Nexus Venture Partners.

DynamoFL привлекает ,1 миллионов для внедрения «совместимых» LLM

В результате этого транша, в котором приняли участие Formus Capital и Soma Capital, общая сумма привлеченного финансирования DynamoFL достигла 19,3 млн долл. По словам соучредителя и генерального директора компании Вайккунта Мугунтхана, полученные средства будут направлены на расширение продуктовых предложений DynamoFL и увеличение команды исследователей конфиденциальности.

«В совокупности все продукты DynamoFL позволяют предприятиям разрабатывать приватные и совместимые решения LLM без ущерба для производительности», — сказал Мугунтхан в интервью TechCrunch.

Компания DynamoFL, расположенная в Сан-Франциско, была основана в 2021 году Мугунтханом и Кристианом Лау, выпускниками факультета электротехники и компьютерных наук Массачусетского технологического института. По словам Мугунтана, к созданию компании их подтолкнуло общее желание устранить «критические» уязвимости в безопасности данных в моделях искусственного интеллекта.

Генеративный ИИ привел к появлению новых рисков, включая возможность LLM «запоминать» конфиденциальные обучающие данные и передавать их злоумышленникам», — говорит Мугунтхан. «Предприятия не имеют достаточной подготовки для борьбы с этими рисками, поскольку для надлежащего устранения этих уязвимостей LLM необходимо нанять группы высокоспециализированных исследователей в области машинного обучения, работающих в сфере конфиденциальности, и создать упорядоченную инфраструктуру для постоянного тестирования LLM на предмет возникающих уязвимостей в области безопасности данных».

Предприятия, безусловно, сталкиваются с проблемами — в основном связанными с соблюдением нормативных требований — при использовании LLM в своих целях. Компании опасаются, что их конфиденциальные данные попадут к разработчикам, которые обучали модели на пользовательских данных; в последние месяцы такие крупные корпорации, как Apple, Walmart и Verizon, запретили сотрудникам использовать такие инструменты, как ChatGPT от OpenAI.

В недавнем отчете компания Gartner выделила шесть юридических и нормативно-правовых рисков, которые необходимо оценить организациям для «ответственного» использования LLM, включая возможность LLM неточно отвечать на вопросы, конфиденциальность данных и предвзятость моделей. В отчете отмечается, что эти требования могут варьироваться в зависимости от штата и страны, что усложняет ситуацию; например, в Калифорнии организации обязаны раскрывать информацию о том, что клиент общается с ботом.

DynamoFL, развертываемая в виртуальном частном облаке заказчика или в локальной сети, решает эти проблемы различными способами, в том числе с помощью инструмента тестирования LLM на проникновение, который выявляет и документирует риски безопасности данных LLM, например, запомнил ли LLM или может ли он слить конфиденциальные данные. Ряд исследований показал, что LLM, в зависимости от того, как их обучают и подсказывают, могут раскрывать личную информацию, что является очевидной антипатией для крупных компаний, работающих с конфиденциальными данными.

Кроме того, DynamoFL предоставляет платформу для разработки LLM, в которой реализованы технологии, направленные на снижение рисков утечки данных и уязвимостей безопасности моделей. Используя эту платформу, разработчики могут интегрировать в модели различные оптимизации, что также позволяет запускать их в средах с ограниченными аппаратными возможностями, таких как мобильные устройства и пограничные серверы.

  • Другие новости