論文の概要: The Price of Progress: Algorithmic Efficiency and the Falling Cost of AI Inference
- arxiv url: http://arxiv.org/abs/2511.23455v1
- Date: Fri, 28 Nov 2025 18:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:56.031371
- Title: The Price of Progress: Algorithmic Efficiency and the Falling Cost of AI Inference
- Title(参考訳): 進歩の価格:アルゴリズム効率とAI推論の下落コスト
- Authors: Hans Gundlach, Jayson Lynch, Matthias Mertens, Neil Thompson,
- Abstract要約: われわれは、Artificial AnalysisとEpoch AIのデータを使用して、現在および過去の価格の最大のデータセットを作成し、ベンチマークを実行しています。
私たちは、知識、推論、数学、およびソフトウェアエンジニアリングベンチマークのフロンティアモデルに対して、所定のベンチマークパフォーマンスの価格が、年間5ドルから10ドル程度という、驚くほど早く低下していることに気付きました。
- 参考スコア(独自算出の注目度): 2.1402953545421655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models have seen enormous progress on advanced benchmarks in recent years, but much of this progress has only been possible by using more costly models. Benchmarks may therefore present a warped picture of progress in practical capabilities per dollar. To remedy this, we use data from Artificial Analysis and Epoch AI to form the largest dataset of current and historical prices to run benchmarks to date. We find that the price for a given level of benchmark performance has decreased remarkably fast, around $5\times$ to $10\times$ per year, for frontier models on knowledge, reasoning, math, and software engineering benchmarks. These reductions in the cost of AI inference are due to economic forces, hardware efficiency improvements, and algorithmic efficiency improvements. Isolating out open models to control for competition effects and dividing by hardware price declines, we estimate that algorithmic efficiency progress is around $3\times$ per year. Finally, we recommend that evaluators both publicize and take into account the price of benchmarking as an essential part of measuring the real-world impact of AI.
- Abstract(参考訳): 言語モデルは近年、高度なベンチマークで大きく進歩していますが、こうした進歩の多くは、よりコストのかかるモデルを使用することでのみ可能になっています。
したがってベンチマークは、1ドルあたりの実用能力の進歩の歪んだ図を示す可能性がある。
これを改善するために、Artificial AnalysisとEpoch AIのデータを使用して、現在および過去の価格の最大のデータセットを作成して、ベンチマークを実行しています。
私たちは、知識、推論、数学、およびソフトウェアエンジニアリングベンチマークのフロンティアモデルに対して、特定のベンチマークパフォーマンスのレベルが、年間約5ドルから10ドルに大幅に低下していることに気付きました。
これらのAI推論コストの削減は、経済力、ハードウェア効率の改善、アルゴリズム効率の改善による。
競争効果を制御し、ハードウェア価格の下落によって分割するオープンモデルを取り除き、アルゴリズムの効率の進歩は年3ドル前後と見積もっている。
最後に、AIの実際の影響を測定する上で重要な要素として、ベンチマークの価格を公表し、考慮しておくことを推奨する。
関連論文リスト
- Cost-Aware Retrieval-Augmentation Reasoning Models with Adaptive Retrieval Depth [18.05278637533445]
本稿では,検索した文書リストの長さを動的に調整する検索拡張推論モデルを提案する。
我々は、強化学習による効率的な検索強化推論モデルの訓練のための費用対効果関数を開発する。
提案手法を7つの公開質問応答データセットで評価し,有効性を損なうことなく,高い効率性を示す。
論文 参考訳(メタデータ) (2025-10-17T15:04:03Z) - Cost-aware Stopping for Bayesian Optimization [46.95172329282389]
本稿では,様々な評価コストに適応し,チューニングが不要なベイズ最適化のためのコスト対応停止則を提案する。
我々は,最先端の取得関数と組み合わせた場合,停止規則によって得られる期待累積評価コストを拘束する理論的な保証を証明した。
論文 参考訳(メタデータ) (2025-07-16T17:54:14Z) - Cost-Optimal Active AI Model Evaluation [71.2069549142394]
生成AIシステムの開発には、継続的な評価、データ取得、アノテーションが必要である。
我々は、安価だがしばしば不正確で弱いレーダの使用を積極的にバランスさせる新しいコスト認識手法を開発した。
我々は、弱者と強者の間で所定のアノテーション予算を割り当てるためのコスト最適化政策のファミリーを導出する。
論文 参考訳(メタデータ) (2025-06-09T17:14:41Z) - Kinetics: Rethinking Test-Time Scaling Laws [18.325591438335007]
Kinetics Scaling Lawは、テストタイムの計算が、より小さなしきい値以上のモデルで使用される場合、より効果的であることを示唆している。
そこで本研究では,スパークアテンションに着目した新しいスケーリングパラダイムを提案し,コストを削減し,より長い世代とより並列なサンプルを実現する。
論文 参考訳(メタデータ) (2025-06-05T17:59:24Z) - BAT: Benchmark for Auto-bidding Task [67.56067222427946]
本稿では,最も普及している2種類のオークション形式を含むオークションベンチマークを提案する。
我々は,新しいデータセットに基づいて,一連の堅牢なベースラインを実装した。
このベンチマークは、研究者や実践者が革新的なオートバイディングアルゴリズムを開発し、洗練するための、ユーザフレンドリで直感的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-13T12:12:34Z) - Cost-of-Pass: An Economic Framework for Evaluating Language Models [25.152801302217693]
正しい解決策を生み出すための金銭的コストである「パスコスト」を導入します。
次に、「最前線のコスト」を、利用可能なモデルや「人間専門家」にまたがる最小のパスコストとして定義する。
私たちは、基本的な量的、知識集約的、複雑な量的タスクにおいてフロンティアを推し進めるために、軽量、大規模、推論モデルにおける革新が不可欠であることが分かりました。
論文 参考訳(メタデータ) (2025-04-17T21:58:29Z) - Self-Steering Optimization: Autonomous Preference Optimization for Large Language Models [79.84205827056907]
本稿では,高品質な嗜好データを自律的に生成するアルゴリズムであるセルフステアリング最適化(SSO$)を提案する。
$SSO$は、ポリシーモデル自体からデータジェネレータを構築するために、特別な最適化目標を採用しています。
評価の結果,$SSO$は人選好アライメントと報酬最適化のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-10-22T16:04:03Z) - Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z) - Correlate-and-Excite: Real-Time Stereo Matching via Guided Cost Volume
Excitation [65.83008812026635]
本稿では,GCE ( Guided Cost Volume Excitation) を構築し,画像によって誘導されるコストボリュームの簡単なチャネル励磁により,性能が大幅に向上することを示す。
我々はCorrelate-and-Excite(CoEx)と呼ぶエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-12T14:32:26Z) - Accurate Stock Price Forecasting Using Robust and Optimized Deep
Learning Models [0.0]
本稿では,インドの自動車部門における重要な企業の株価の将来価格を正確に予測するために,回帰モデルの10種類の深層学習モデルを提案する。
5分間隔で集められた非常に粒状の株価を使用して、私達は2012年12月31日から2013年12月27日までの記録に基づいてモデルを訓練します。
本稿では,モデルの設計原理を説明し,予測精度と実行速度に基づいてその性能を解析する。
論文 参考訳(メタデータ) (2021-03-28T09:52:29Z) - Costs to Consider in Adopting NLP for Your Business [3.608765813727773]
パフォーマンス向上とモデル間のコストのトレードオフを示し、AIピボットビジネスのさらなる洞察を与えます。
特にリソース不足言語について、低コストモデルに関するさらなる研究を求めています。
論文 参考訳(メタデータ) (2020-12-16T13:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。