論文の概要: Forecasting Open-Weight AI Model Growth on Hugging Face
- arxiv url: http://arxiv.org/abs/2502.15987v1
- Date: Fri, 21 Feb 2025 22:52:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:58:46.563504
- Title: Forecasting Open-Weight AI Model Growth on Hugging Face
- Title(参考訳): ハグする顔のオープンウェイトAIモデルの成長予測
- Authors: Kushal Raj Bhandari, Pin-Yu Chen, Jianxi Gao,
- Abstract要約: 科学文献における引用力学と平行して構築する手法として,オープンウェイトモデルの影響を定量的に評価する枠組みを提案する。
オープンウェイトモデルの細調整モデルの累積数を追跡するために,Wangらによって導入された3つの重要なパラメータ-即時性,長寿命性,相対的適合性を用いて,科学的引用に適応する。
提案手法は,オープンウェイトモデル導入の多様な軌跡を効果的に捉えることが可能であり,ほとんどのモデルでは,ユニークなパターンや急激な使用感を示すアウトリーチが適している。
- 参考スコア(独自算出の注目度): 46.348283638884425
- License:
- Abstract: As the open-weight AI landscape continues to proliferate-with model development, significant investment, and user interest-it becomes increasingly important to predict which models will ultimately drive innovation and shape AI ecosystems. Building on parallels with citation dynamics in scientific literature, we propose a framework to quantify how an open-weight model's influence evolves. Specifically, we adapt the model introduced by Wang et al. for scientific citations, using three key parameters-immediacy, longevity, and relative fitness-to track the cumulative number of fine-tuned models of an open-weight model. Our findings reveal that this citation-style approach can effectively capture the diverse trajectories of open-weight model adoption, with most models fitting well and outliers indicating unique patterns or abrupt jumps in usage.
- Abstract(参考訳): オープンウェイトなAIの展望が、モデル開発、重要な投資、そしてユーザーの関心とともに拡大し続けるにつれ、どのモデルが最終的にイノベーションを駆動し、AIエコシステムを形成するかを予測することがますます重要になる。
科学文献における引用力学と平行して構築する手法として,オープンウェイトモデルの影響を定量的に評価する枠組みを提案する。
具体的には、Wangらによって導入されたモデルを用いて、3つの重要なパラメーター-即時性、長寿命性、相対的適合性-を用いて、オープンウェイトモデルの微調整モデルの累積数を追跡する。
提案手法は,オープンウェイトモデル導入の多様な軌跡を効果的に捉えることが可能であり,ほとんどのモデルでは,ユニークなパターンや急激な使用感を示すアウトリーチが適している。
関連論文リスト
- Guiding Time-Varying Generative Models with Natural Gradients on Exponential Family Manifold [5.000311680307273]
時間変化生成モデルの進化は指数族多様体に射影できることを示す。
次に、自然な勾配降下スキームに従って、多様体上の射影を移動させることで生成モデルを訓練する。
指数族内の任意のパラメトリックモデルのクローズドフォーム更新ルールを特徴とするアルゴリズムの粒子バージョンを提案する。
論文 参考訳(メタデータ) (2025-02-11T15:39:47Z) - A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Rethinking Weight-Averaged Model-merging [15.2881959315021]
重み付きモデルマージはディープラーニングにおいて強力なアプローチとして登場し、微調整や再訓練なしにモデル性能を向上させることができる。
本稿では,この手法を3つの新しい視点から検討し,重み付きモデルマージがどのように動作するのか,なぜより深い知見を提供する。
私たちの発見は、平均的なモデルマージの"ブラックボックス"に光を当て、貴重な洞察と実践的なレコメンデーションを提供しました。
論文 参考訳(メタデータ) (2024-11-14T08:02:14Z) - Exploring Model Kinship for Merging Large Language Models [52.01652098827454]
本稿では,大規模言語モデル間の類似性や関連性の程度であるモデル親和性を紹介する。
モデル統合後の性能向上とモデル親和性の間には,一定の関係があることが判明した。
我々は新しいモデルマージ戦略を提案する。Top-k Greedy Merging with Model Kinship。
論文 参考訳(メタデータ) (2024-10-16T14:29:29Z) - Fine-tuning large language models for domain adaptation: Exploration of training strategies, scaling, model merging and synergistic capabilities [4.389938747401259]
本研究は、材料科学や工学などの分野における大規模言語モデル(LLM)に対する微調整戦略の効果について考察する。
複数の微調整モデルの融合は、親モデルの個々の貢献を超越した能力の出現につながる可能性がある。
論文 参考訳(メタデータ) (2024-09-05T11:49:53Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - MGE: A Training-Free and Efficient Model Generation and Enhancement
Scheme [10.48591131837771]
本稿では,MGE(Merning-free and Efficient Model Generation and Enhancement Scheme)を提案する。
モデル生成プロセスにおいて、モデルパラメータの分布とモデルパフォーマンスの2つの側面を考慮する。
実験の結果、生成したモデルは通常の訓練によって得られたモデルに匹敵し、場合によっては優れていることが示された。
論文 参考訳(メタデータ) (2024-02-27T13:12:00Z) - Your Autoregressive Generative Model Can be Better If You Treat It as an
Energy-Based One [83.5162421521224]
本稿では,自己回帰生成モデルの学習のための独自のE-ARM法を提案する。
E-ARMは、よく設計されたエネルギーベースの学習目標を活用する。
我々は、E-ARMを効率的に訓練でき、露光バイアス問題を緩和できることを示した。
論文 参考訳(メタデータ) (2022-06-26T10:58:41Z) - DynamicEmbedding: Extending TensorFlow for Colossal-Scale Applications [0.0]
今日、スパースな特徴を持つディープラーニングモデルの制限の1つは、入力の事前定義された性質に起因している。
結果のモデルは、はるかに大きなスケールで、より良く、効率的に実行可能であることを示す。
論文 参考訳(メタデータ) (2020-04-17T17:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。