Open Source Initiative (OSI), на протяжении многих лет устанавливающая стандарты для открытого программного обеспечения (ПО), представила новое определение для термина «открытый ИИ». Теперь, чтобы модель ИИ могла считаться по-настоящему открытой, OSI требует доступа к данным, использованным для её обучения, полному исходному коду, а также ко всем параметрам и весам, которые определяют её функционирование. Эти обновленные требования могут значительно повлиять на технологическую сферу, поскольку такие ИИ-модели, как Llama от компании Meta✴, не соответствуют указанным стандартам.
Источник изображения: BrianPenny / Pixabay
Неудивительно, что Meta✴ имеет иную точку зрения, утверждая, что подход OSI не учитывает особенности современных ИИ-систем. Представитель компании Фейт Айшен (Faith Eischen) отметила, что Meta✴, хотя и поддерживает многие инициативы OSI, не согласна с предложенным определением, поскольку, по её словам, «нет единого стандарта для открытого ИИ». Она также добавила, что Meta✴ будет продолжать сотрудничество с OSI и другими организациями для обеспечения «ответственного расширения доступа к ИИ», независимо от формальных критериев. В то же время Meta✴ подчеркивает, что её модель Llama ограничена в коммерческом использовании в приложениях с аудиторией более 700 миллионов пользователей, что противоречит стандартам OSI, предполагающим полную свободу использования и модификации.
Принципы OSI, устанавливающие стандарты открытого ПО, на протяжении 25 лет признаются и активно применяются сообществом разработчиков. Благодаря этим принципам разработчики могут свободно использовать чужие наработки, не опасаясь юридических последствий. Новое определение OSI для ИИ-моделей подразумевает аналогичное применение принципов открытости, однако для таких технологических гигантов, как Meta✴, это может представлять серьезный вызов. Недавно некоммерческая организация Linux Foundation также присоединилась к обсуждению, предложив свою интерпретацию «открытого ИИ», что подчеркивает растущую значимость этой темы для всей ИТ-индустрии.
Исполнительный директор OSI Стефано Маффулли (Stefano Maffulli) отметил, что создание нового определения «открытого ИИ» заняло два года и включало консультации с экспертами в области машинного обучения (ML) и обработки естественного языка (NLP), философами, представителями Creative Commons и другими специалистами. Этот процесс позволил OSI сформулировать определение, которое может стать основой для борьбы с так называемым «open washing», когда компании заявляют о своей открытости, но фактически ограничивают возможности использования и модификации своих продуктов.
Meta✴ объясняет свою нежелание раскрывать данные обучения ИИ вопросами безопасности, однако критики указывают на другие мотивы, включая минимизацию юридических рисков и сохранение конкурентного преимущества. Многие ИИ-модели, вероятно, обучены на материалах, защищенных авторским правом. Так, весной The New York Times сообщила, что Meta✴ признала наличие такого контента в своих обучающих данных, поскольку его фильтрация практически невозможна. В то время как Meta✴ и другие компании, включая OpenAI и Perplexity, сталкиваются с судебными исками за возможные нарушения авторских прав, ИИ-модель Stable Diffusion остается одним из немногих примеров открытого доступа к данным обучения ИИ.
Маффулли видит в действиях Meta✴ параллели с позицией Microsoft 1990-х годов, когда та воспринимала открытое ПО как угрозу своему бизнесу. Meta✴, по словам Маффулли, акцентирует внимание на объеме своих инвестиций в модель Llama, предполагая, что такие ресурсоемкие разработки доступны лишь немногим. Использование Meta✴ данных обучения в закрытом формате, по мнению Маффулли, стало своего рода «секретным ингредиентом», позволяющим корпорации сохранять конкурентное преимущество и защищать свою интеллектуальную собственность.