Взгляд Red Hat на искусственный интеллект с открытым исходным кодом: прагматизм вместо утопических мечтаний
Гигант Linux планирует разработку искусственного интеллекта, которая отражает дух совместной работы программного обеспечения с открытым исходным кодом. Это будет непросто.
ИИ с открытым исходным кодом меняет все, что люди думали, что знают об искусственном интеллекте. Просто взгляните на DeepSeek, китайскую программу с открытым исходным кодом, которая взорвала финансовые двери индустрии искусственного интеллекта. Red Hat, ведущая мировая компания в области Linux, понимает возможности открытого исходного кода и искусственного интеллекта лучше, чем кто-либо другой.
Прагматичный подход Red Hat к искусственному интеллекту с открытым исходным кодом отражает ее многолетнюю приверженность принципам открытого исходного кода, в то же время борясь с уникальными сложностями современных систем искусственного интеллекта. Вместо того, чтобы гнаться за мечтами об искусственном интеллекте (AGI), Red Hat балансирует между практическими потребностями предприятия и тем, что ИИ может предоставить сегодня.
В то же время Red Hat признает неопределенность, связанную с «ИИ с открытым исходным кодом». На саммите членов Linux Foundation в ноябре 2024 года Ричард Фонтана, главный коммерческий советник Red Hat, подчеркнул, что в то время как традиционное программное обеспечение с открытым исходным кодом опирается на доступный исходный код, ИИ создает проблемы с непрозрачными данными для обучения и весами моделей.
Во время панельной дискуссии Фонтана сказал: «Что является аналогом [исходного кода] для ИИ? Это непонятно. Некоторые люди считают, что обучающие данные должны быть открытыми, но это крайне непрактично для LLM [больших языковых моделей]. Это говорит о том, что ИИ с открытым исходным кодом может быть утопической целью на данном этапе».
Это противоречие очевидно в моделях, выпущенных под лицензиями, которые являются ограничительными, но помечены как «с открытым исходным кодом». Эти поддельные программы с открытым исходным кодом включают LLama от Meta, и Фонтана критикует эту тенденцию, отмечая, что многие лицензии дискриминируют области деятельности или группы, но при этом заявляют об открытости.
Основная проблема заключается в том, чтобы примирить прозрачность с конкурентными и правовыми реалиями. В то время как Red Hat выступает за открытость, Фонтана предостерегает от жестких определений, требующих полного раскрытия обучающих данных: раскрытие подробных обучающих данных рискует быть нацеленным на создателей моделей в сегодняшней судебной среде. Добросовестное использование общедоступных данных усложняет ожидания прозрачности.
Технический директор Red Hat Крис Райт (Chris Wright) подчеркивает прагматичные шаги в направлении воспроизводимости, выступая за открытые модели, такие как Granite LLM, и такие инструменты, как InstructLab, которые обеспечивают тонкую настройку под руководством сообщества. Райт пишет: «InstructLab позволяет любому вносить свой вклад в модели, что делает ИИ по-настоящему совместным. Именно так открытый исходный код победил в программном обеспечении — теперь мы делаем это для искусственного интеллекта».
Райт описывает это как эволюцию наследия Red Hat Linux: «Подобно тому, как Linux, стандартизированная ИТ-инфраструктура, RHEL AI обеспечивает основу для корпоративного ИИ — открытого, гибкого и гибридного по своей конструкции».
Red Hat предполагает, что разработка искусственного интеллекта будет отражать дух совместной работы программного обеспечения с открытым исходным кодом. Райт утверждает: «Модели должны быть артефактами с открытым исходным кодом. Обмен знаниями — это миссия Red Hat — именно так мы избегаем привязки к поставщику и гарантируем, что искусственный интеллект принесет пользу всем».
Это будет непросто. Райт признает, что «ИИ, особенно большие языковые модели, управляющие генеративным ИИ, нельзя рассматривать так же, как программное обеспечение с открытым исходным кодом. В отличие от программного обеспечения, модели ИИ в основном состоят из весовых коэффициентов модели, которые представляют собой числовые параметры, определяющие, как модель обрабатывает входные данные, а также связи, которые она устанавливает между различными точками данных. Обученные веса модели являются результатом обширного процесса обучения, включающего огромное количество обучающих данных, которые тщательно подготавливаются, смешиваются и обрабатываются».
Хотя модели не являются программным обеспечением, Райт продолжает:
«В некоторых отношениях они выполняют функцию, аналогичную кодированию. Легко провести сравнение, согласно которому данные являются или являются аналогом исходного кода модели. Данные для обучения сами по себе не подходят для этой роли. Большинство улучшений и усовершенствований моделей ИИ, которые в настоящее время происходят в сообществе, не связаны с доступом к исходным обучающим данным или манипулированием ими. Скорее, они являются результатом модификации весов модели или процесса тонкой настройки, который также может служить для корректировки производительности модели. Свобода внесения этих улучшений в модель требует, чтобы весовые коэффициенты были освобождены со всеми разрешениями, которые пользователи получают в соответствии с лицензиями с открытым исходным кодом».
Тем не менее, Фонтана также предостерегает от чрезмерного напряжения в определении открытости, выступая за минимальные стандарты, а не за утопические идеалы. «Определение открытого исходного кода (OSD) работало, потому что оно устанавливало пол, а не потолок. Определения ИИ должны быть сосредоточены в первую очередь на ясности лицензирования, а не обременять разработчиков непрактичными мандатами на прозрачность».
Этот подход похож на Open Source AI Definition (OSAID) 1.0 от Open Source Initiative (OSI), но это не одно и то же. В то время как Mozilla Foundation, OpenInfra Foundation, Bloomberg Engineering и SUSE одобрили OSAID, Red Hat еще не дала своего благословения документу. Вместо этого Райт говорит: «Наша точка зрения на сегодняшний день — это просто наш взгляд на то, что делает искусственный интеллект с открытым исходным кодом достижимым и доступным для самого широкого круга сообществ, организаций и поставщиков».
Райт заключает: «Будущее ИИ открыто, но это путешествие. Мы решаем вопросы прозрачности, устойчивости и доверия — по одному проекту с открытым исходным кодом за раз». Предостерегающая точка зрения Фонтаны обосновывает это видение, которое заключается в том, что ИИ с открытым исходным кодом должен уважать конкурентные и правовые реалии. Сообщество должно уточнять определения постепенно, а не навязывать идеалы незрелым технологиям.
OSI, сосредоточившись на определении, соглашается с этим. OSAID 1.0 — это только первая несовершенная версия. Группа уже работает над другой версией. В то же время Red Hat продолжит свою работу по формированию открытого будущего ИИ, наводя мосты между сообществами разработчиков и предприятиями, преодолевая при этом тернистую этику прозрачности ИИ.