論文の概要: Economies of Open Intelligence: Tracing Power & Participation in the Model Ecosystem
- arxiv url: http://arxiv.org/abs/2512.03073v1
- Date: Thu, 27 Nov 2025 12:50:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-04 20:02:54.937
- Title: Economies of Open Intelligence: Tracing Power & Participation in the Model Ecosystem
- Title(参考訳): オープンインテリジェンスのエコノミクス:モデル生態系におけるパワーと参加の追跡
- Authors: Shayne Longpre, Christopher Akiki, Campbell Lund, Atharva Kulkarni, Emily Chen, Irene Solaiman, Avijit Ghosh, Yacine Jernite, Lucie-Aimée Kaffee,
- Abstract要約: Hugging Face Model Hubは、オープンウェイトAIモデルを共有するための主要なグローバルプラットフォームである。
私たちの分析は851,000モデル、1モデルあたり200以上の集約属性、2.2Bダウンロードに及びます。
- 参考スコア(独自算出の注目度): 21.595922367237815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since 2019, the Hugging Face Model Hub has been the primary global platform for sharing open weight AI models. By releasing a dataset of the complete history of weekly model downloads (June 2020-August 2025) alongside model metadata, we provide the most rigorous examination to-date of concentration dynamics and evolving characteristics in the open model economy. Our analysis spans 851,000 models, over 200 aggregated attributes per model, and 2.2B downloads. We document a fundamental rebalancing of economic power: US open-weight industry dominance by Google, Meta, and OpenAI has declined sharply in favor of unaffiliated developers, community organizations, and, as of 2025, Chinese industry, with DeepSeek and Qwen models potentially heralding a new consolidation of market power. We identify statistically significant shifts in model properties, a 17X increase in average model size, rapid growth in multimodal generation (3.4X), quantization (5X), and mixture-of-experts architectures (7X), alongside concerning declines in data transparency, with open weights models surpassing truly open source models for the first time in 2025. We expose a new layer of developer intermediaries that has emerged, focused on quantizing and adapting base models for both efficiency and artistic expression. To enable continued research and oversight, we release the complete dataset with an interactive dashboard for real-time monitoring of concentration dynamics and evolving properties in the open model economy.
- Abstract(参考訳): 2019年以降、Hugging Face Model HubはオープンウェイトAIモデルを共有するための主要なグローバルプラットフォームとなっている。
モデルメタデータとともに毎週のモデルダウンロード(2020年6月から2025年8月)の完全な履歴のデータセットを公開することにより、オープンモデル経済における集中動態と進化特性の現在までの最も厳密な調査を行う。
私たちの分析は851,000モデル、1モデルあたり200以上の集約属性、2.2Bダウンロードに及びます。
Google、Meta、OpenAIによるアメリカのオープンウェイトな業界支配は、無関係の開発者、コミュニティ組織、そして2025年現在、中国の業界では、DeepSeekとQwenのモデルが市場パワーの新たな統合を示唆している。
モデル特性の統計的に有意な変化,平均モデルサイズの増加,マルチモーダル生成の急速な成長(3.4X),量子化(5X),ミックス・オブ・エキスパートアーキテクチャ(7X),データ透明性の低下,オープンウェイトモデルは2025年に初めて真のオープンソースモデルを上回った。
我々は、効率性と芸術的表現の両方に基礎モデルを定量化し、適応することに焦点を当てた、新しい開発者仲介者の層を公開します。
継続的な研究と監視を可能にするため、オープンモデル経済における集中動態と進化特性のリアルタイム監視のための対話型ダッシュボードを備えた完全なデータセットをリリースする。
関連論文リスト
- Forecasting Open-Weight AI Model Growth on HuggingFace [46.348283638884425]
科学文献における引用力学と平行して構築する手法として,オープンウェイトモデルの影響を定量的に評価する枠組みを提案する。
オープンウェイトモデルの細調整モデルの累積数を追跡するために,Wangらによって導入された3つの重要なパラメータ-即時性,長寿命性,相対的適合性を用いて,科学的引用に適応する。
提案手法は,オープンウェイトモデル導入の多様な軌跡を効果的に捉えることが可能であり,ほとんどのモデルでは,ユニークなパターンや急激な使用感を示すアウトリーチが適している。
論文 参考訳(メタデータ) (2025-02-21T22:52:19Z) - A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Exploring Model Kinship for Merging Large Language Models [73.98345036483299]
我々は, モデル進化を反復的融合を通じて研究し, 生物進化の類似性について考察した。
モデル親和性はマージによって達成された性能改善と密接に関連していることを示す。
本稿では,新しいモデル統合戦略を提案する。
論文 参考訳(メタデータ) (2024-10-16T14:29:29Z) - Data-Juicer Sandbox: A Feedback-Driven Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは、フィードバック駆動の実験プラットフォームを提供し、コスト効率とデータとモデルの両方のガイド付き洗練を可能にする。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - On the Stability of Iterative Retraining of Generative Models on their own Data [56.153542044045224]
混合データセットに対する生成モデルの訓練が与える影響について検討する。
まず、初期生成モデルがデータ分布を十分に近似する条件下で反復学習の安定性を実証する。
我々は、正規化フローと最先端拡散モデルを繰り返し訓練することにより、合成画像と自然画像の両方に関する我々の理論を実証的に検証する。
論文 参考訳(メタデータ) (2023-09-30T16:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。