論文の概要: A Cartography of Open Collaboration in Open Source AI: Mapping Practices, Motivations, and Governance in 14 Open Large Language Model Projects
- arxiv url: http://arxiv.org/abs/2509.25397v1
- Date: Mon, 29 Sep 2025 18:55:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.277966
- Title: A Cartography of Open Collaboration in Open Source AI: Mapping Practices, Motivations, and Governance in 14 Open Large Language Model Projects
- Title(参考訳): オープンソースAIにおけるオープンコラボレーションのカルトグラフィー:14の大規模言語モデルプロジェクトにおける実践、モチベーション、ガバナンスのマッピング
- Authors: Johan Linåker, Cailean Osborne, Jennifer Ding, Ben Burtenshaw,
- Abstract要約: オープンな大規模言語モデル(LLM)の普及は、人工知能(AI)における研究とイノベーションの活発なエコシステムを育んでいる。
オープン LLM の開発に用いられている共同開発手法は,まだ包括的に研究されていない。
我々は、草の根プロジェクト、研究機関、スタートアップ、北米、ヨーロッパ、アフリカ、アジアのビッグテック企業の14のオープンLCMの開発者との半構造化されたインタビューを描いています。
- 参考スコア(独自算出の注目度): 0.8065951670484136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of open large language models (LLMs) is fostering a vibrant ecosystem of research and innovation in artificial intelligence (AI). However, the methods of collaboration used to develop open LLMs both before and after their public release have not yet been comprehensively studied, limiting our understanding of how open LLM projects are initiated, organized, and governed as well as what opportunities there are to foster this ecosystem even further. We address this gap through an exploratory analysis of open collaboration throughout the development and reuse lifecycle of open LLMs, drawing on semi-structured interviews with the developers of 14 open LLMs from grassroots projects, research institutes, startups, and Big Tech companies in North America, Europe, Africa, and Asia. We make three key contributions to research and practice. First, collaboration in open LLM projects extends far beyond the LLMs themselves, encompassing datasets, benchmarks, open source frameworks, leaderboards, knowledge sharing and discussion forums, and compute partnerships, among others. Second, open LLM developers have a variety of social, economic, and technological motivations, from democratizing AI access and promoting open science to building regional ecosystems and expanding language representation. Third, the sampled open LLM projects exhibit five distinct organizational models, ranging from single company projects to non-profit-sponsored grassroots projects, which vary in their centralization of control and community engagement strategies used throughout the open LLM lifecycle. We conclude with practical recommendations for stakeholders seeking to support the global community building a more open future for AI.
- Abstract(参考訳): オープンな大規模言語モデル(LLM)の普及は、人工知能(AI)における研究とイノベーションの活発なエコシステムを育んでいる。
しかし, オープン LLM プロジェクトの開始, 組織化, 管理の方法や, エコシステムをさらに発展させる機会など, オープン LLM の開発に使用されているコラボレーションの手法は, まだ包括的に研究されていない。
我々は、草の根プロジェクト、研究機関、スタートアップ、北米、ヨーロッパ、アフリカ、アジアのビッグテック企業の14のオープンLCMの開発者との半構造化されたインタビューに基づいて、オープンLCMの開発と再利用ライフサイクル全体を通してオープンコラボレーションの探索的分析を通して、このギャップに対処する。
研究と実践に3つの重要な貢献をしている。
まず、オープンなLLMプロジェクトにおけるコラボレーションは、データセット、ベンチマーク、オープンソースフレームワーク、リーダーボード、知識共有とディスカッションフォーラム、計算パートナーシップなどを含む、LLM自体を超えて拡張されている。
第2に、オープンLLM開発者は、AIアクセスの民主化やオープンサイエンスの推進、地域エコシステムの構築、言語表現の拡大など、さまざまな社会的、経済的、技術的モチベーションを持っています。
第3に、オープン LLM プロジェクトは、単一企業プロジェクトから非営利の草の根プロジェクトまで、オープン LLM ライフサイクルを通じて使用されるコントロールの集中化とコミュニティエンゲージメント戦略の5つの異なる組織モデルを示す。
我々は、AIのよりオープンな未来を構築するグローバルコミュニティを支援したいステークホルダーに対して、実践的なレコメンデーションで締めくくります。
関連論文リスト
- Open-Source Multimodal Moxin Models with Moxin-VLM and Moxin-VLA [53.68989489261506]
Moxin 7Bは、完全にオープンソースなLarge Language Models (LLMs)として導入された。
我々は,Moxin-VLM,Moxin-VLA,Moxin- Chineseの3つの変種を開発した。
実験により, 各種評価において, モデルが優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-12-22T02:36:42Z) - Open-Source LLMs Collaboration Beats Closed-Source LLMs: A Scalable Multi-Agent System [51.04535721779685]
本稿では,オープンソース集団の可能性と強みを実証することを目的とする。
高性能なマルチエージェント協調システム(MACS)フレームワークであるSMACSを提案する。
8つの主要なベンチマーク実験により、SMACSの有効性が検証された。
論文 参考訳(メタデータ) (2025-07-14T16:17:11Z) - LLMs' Reshaping of People, Processes, Products, and Society in Software Development: A Comprehensive Exploration with Early Adopters [3.4069804433026314]
OpenAI ChatGPT、Google Gemini、GitHub Copilotといった大規模言語モデル(LLM)は、ソフトウェア業界で急速に注目を集めている。
私たちの研究は、LLMがソフトウェア開発のランドスケープをどう形作っているのか、微妙に理解しています。
論文 参考訳(メタデータ) (2025-03-06T22:27:05Z) - 7B Fully Open Source Moxin-LLM/VLM -- From Pretraining to GRPO-based Reinforcement Learning Enhancement [41.463611054440435]
Moxin 7Bは、オープンサイエンス、オープンソース、オープンデータ、オープンアクセスの原則に準拠した、完全にオープンソースのLarge Language Models (LLM) である。
トレーニング済みのコードと設定、トレーニングと微調整のデータセット、中間および最終チェックポイントをリリースします。
実験により, ゼロショット評価, 少数ショット評価, CoT評価など, 各種評価において, 優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-12-08T02:01:46Z) - An Empirical Study on Challenges for LLM Application Developers [28.69628251749012]
私たちは、人気のあるOpenAI開発者フォーラムから29,057の関連質問をクロールして分析します。
2,364の質問を手動で分析した後、LLM開発者が直面している課題の分類を構築した。
論文 参考訳(メタデータ) (2024-08-06T05:46:28Z) - LLM-jp: A Cross-organizational Project for the Research and Development of Fully Open Japanese LLMs [90.04787972295222]
本稿では,LLM-jpについて紹介する。LLM-jpは,日本語大言語モデル(LLM)の研究・開発のためのクロスオーガナイゼーションプロジェクトである。
この執筆時点で、学界や産業界から1,500人以上の参加者がこの目的のために協力している。
最新のアクティビティについては、https://llm-jp.nii.ac.jp/en/.com/を参照してください。
論文 参考訳(メタデータ) (2024-07-04T14:33:03Z) - Free to play: UN Trade and Development's experience with developing its own open-source Retrieval Augmented Generation Large Language Model application [0.0]
UNCTADは、独自のオープンソースのRetrieval Augmented Generation (RAG) LLMアプリケーションを探索、開発している。
RAGは、大規模言語モデルを組織のドメインや作業に意識し、より有用なものにします。
アプリを生成するために開発された3つのライブラリ、ドキュメント処理と統計解析用のnlp_pipeline、ローカルなRAG LLMを実行する local_rag_llm、ユーザインターフェース用の streamlit_rag は、DockerfilesでPyPIとGitHubで公開されている。
論文 参考訳(メタデータ) (2024-06-18T14:23:54Z) - MAP-Neo: Highly Capable and Transparent Bilingual Large Language Model Series [86.31735321970481]
私たちはMAP-Neoをオープンソースにしました。これは、4.5Tの高品質トークン上で、スクラッチからトレーニングされた7Bパラメータを持つバイリンガル言語モデルです。
MAP-Neo は,既存の最先端 LLM と比較して性能が劣る初の完全オープンソースバイリンガル LLM である。
論文 参考訳(メタデータ) (2024-05-29T17:57:16Z) - LLM360: Towards Fully Transparent Open-Source LLMs [89.05970416013403]
LLM360の目標は、すべての人がエンドツーエンドのトレーニングプロセスを透過的かつ再現可能にすることで、オープンで協力的なAI研究を支援することである。
LLM360の最初のステップとして、スクラッチから事前トレーニングされた2つの7BパラメータLSM、AmberとCrystalCoder、トレーニングコード、データ、中間チェックポイント、分析をリリースする。
論文 参考訳(メタデータ) (2023-12-11T17:39:00Z) - ChatGPT's One-year Anniversary: Are Open-Source Large Language Models
Catching up? [71.12709925152784]
ChatGPTは、AIのランドスケープ全体において、地震的な変化をもたらした。
モデルは人間の質問に答え、幅広いタスクのパネルで指示に従うことができることを示した。
クローズドソースのLLMは一般的にオープンソースよりも優れていますが、後者の進歩は急速に進んでいます。
これは研究だけでなく、ビジネスにも重要な意味を持つ。
論文 参考訳(メタデータ) (2023-11-28T17:44:51Z) - H2O Open Ecosystem for State-of-the-art Large Language Models [10.04351591653126]
大規模言語モデル(LLM)はAIの革命を表している。
また、バイアスのある、プライベートな、著作権のある、有害なテキストの存在など、多くの重大なリスクも生じている。
LLMの開発とテストのための完全なオープンソースエコシステムを導入します。
論文 参考訳(メタデータ) (2023-10-17T09:40:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。