論文の概要: Forecasting AI Time Horizon Under Compute Slowdowns
- arxiv url: http://arxiv.org/abs/2511.19492v1
- Date: Sun, 23 Nov 2025 10:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.039441
- Title: Forecasting AI Time Horizon Under Compute Slowdowns
- Title(参考訳): コンピューターのスローダウンでAIタイムホライゾンを予測する
- Authors: Parker Whitfill, Ben Snodin, Joel Becker,
- Abstract要約: 我々はOpenAIの計算予測に基づいて時間地平線成長を計画し、いくつかのケースでかなりの遅延を予測した。
例えば、1ヶ月の時間的地平線が80%$信頼性を持つのは、単純な傾向の補間が示唆するよりも7ドル遅れている。
- 参考スコア(独自算出の注目度): 0.3651274624247922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: METR's time horizon metric has grown exponentially since 2019, along with compute. However, it is unclear whether compute scaling will persist at current rates through 2030, raising the question of how possible compute slowdowns might impact AI agent capability forecasts. Given a model of time horizon as a function of training compute and algorithms, along with a model of how compute investment spills into algorithmic progress (which, notably, precludes the possibility of a software-only singularity), and the empirical fact that both time horizon and compute have grown at constant rates over 2019--2025, we derive that time horizon growth must be proportional to compute growth. We provide additional, albeit limited, experimental evidence consistent with this theory. We use our model to project time horizon growth under OpenAI's compute projection, finding substantial projected delays in some cases. For example, 1-month time horizons at $80\%$ reliability occur $7$ years later than simple trend extrapolation suggests.
- Abstract(参考訳): METRの時間地平線メートル法は、計算とともに2019年以来指数関数的に増加している。
しかし、2030年までの現在のレートでコンピューティングのスケーリングが継続するかどうかは不明であり、計算のスローダウンがAIエージェント能力の予測にどのように影響するかという疑問が提起されている。
計算とアルゴリズムのトレーニング機能としての時間的地平線モデルと、計算投資がアルゴリズムの進歩(特にソフトウェアのみの特異点の可能性を妨げている)にどのように浸透するかのモデルと、時間的地平線と計算が2019年から2025年にかけて一定速度で成長した経験的事実を合わせると、時間的地平線の成長は計算的成長に比例しなければならない。
我々は、この理論と一致する追加的かつ限定的かつ実験的証拠を提供する。
当社のモデルは,OpenAIの計算予測に基づく時間的地平線成長の予測に使用しています。
例えば、80\%$信頼性の1ヶ月の時間的地平線は、単純な傾向の補間が示唆するよりも7ドル遅れて起こる。
関連論文リスト
- Predicting Grain Growth in Polycrystalline Materials Using Deep Learning Time Series Models [0.9558392439655014]
結晶成長は材料の機械的挙動に強く影響を与え、その予測がミクロ構造工学の重要な目的となっている。
本研究では、リカレントニューラルネットワーク(RNN)、長期記憶(LSTM)、時間畳み込みネットワーク(TCN)、トランスフォーマーなど、いくつかのディープラーニングアプローチを評価した。
LSTMネットワークは高い精度(90%以上)と最も安定した性能を達成し、拡張水平線上での物理的に一貫した予測を維持した。
論文 参考訳(メタデータ) (2025-11-07T18:29:42Z) - Seesaw: Accelerating Training by Balancing Learning Rate and Batch Size Scheduling [75.36692892951018]
トレーニング中のバッチサイズの増加は、大規模な言語モデルの事前トレーニングを加速するための有望な戦略である。
この研究はバッチサイズスケジューリングのための原則化されたフレームワークを開発する。
標準スケジューラが学習率を半減するたびに、Seesawは1/sqrt2$と倍増し、バッチサイズを倍増します。
論文 参考訳(メタデータ) (2025-10-16T14:17:38Z) - AI Agents as Universal Task Solvers [94.49762121230042]
我々は,過去のデータを用いて,普遍的な解法が達成できる最適なスピードアップが,アルゴリズム情報と密接な関係があることを示す。
我々は、推論モデルをスケールする際に最適化する重要な量は時間であり、学習における重要な役割は、これまでは間接的にのみ考慮されてきたと論じている。
論文 参考訳(メタデータ) (2025-10-14T02:17:54Z) - Accuracy Law for the Future of Deep Time Series Forecasting [65.46625911002202]
時系列予測は、部分的に観測可能で不確実な性質のため、本質的にゼロでない誤差の低い境界に直面する。
本稿では、ディープ時系列予測の性能上限をどうやって推定するかという根本的な問題に焦点をあてる。
新たに訓練された2,800以上の深層予測器の厳密な統計的テストに基づいて、深部モデルの最小予測誤差とウィンドウワイズ級数パターンの複雑さとの間に有意な指数関数的関係を見出した。
論文 参考訳(メタデータ) (2025-10-03T05:18:47Z) - $\texttt{SPECS}$: Faster Test-Time Scaling through Speculative Drafts [55.231201692232894]
$textttSPECS$は、投機的デコードにインスパイアされた遅延対応のテスト時間スケーリングメソッドである。
我々の結果は、$textttSPECS$matchはビームサーチの精度を上回り、最大$sim$19.1%のレイテンシを削減していることを示している。
論文 参考訳(メタデータ) (2025-06-15T05:50:05Z) - Computational-Statistical Tradeoffs at the Next-Token Prediction Barrier: Autoregressive and Imitation Learning under Misspecification [50.717692060500696]
対数損失を伴う次のトーケン予測は自己回帰シーケンスモデリングの基盤となる。
次トーケン予測は、適度な誤差増幅を表す$C=tilde O(H)$を達成するために堅牢にすることができる。
C=e(log H)1-Omega(1)$。
論文 参考訳(メタデータ) (2025-02-18T02:52:00Z) - The Race to Efficiency: A New Perspective on AI Scaling Laws [0.0]
我々は、古典的なAIスケーリング法則を拡張する時間と効率を意識したフレームワークを導入する。
私たちのモデルでは、継続的な効率向上がなければ、高度なパフォーマンスは何千年ものトレーニングや非現実的な大規模なGPUフリートを必要とする可能性がある。
このレースを効率性にフォーマルにすることで、AIスタック全体の漸進的な改善と、フロントエンドGPU投資のバランスをとるための定量的ロードマップを提供します。
論文 参考訳(メタデータ) (2025-01-04T01:45:32Z) - Confidence Adaptive Anytime Pixel-Level Recognition [86.75784498879354]
任意の時間推論は、いつでも停止される可能性のある予測の進行を行うモデルを必要とする。
我々は,任意のピクセルレベルの認識に対して,最初の統一とエンドツーエンドのモデルアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-01T20:01:57Z) - Measuring the Algorithmic Efficiency of Neural Networks [1.1108287264548806]
分類器をAlexNetレベルにトレーニングするために必要な浮動小数点演算数は,2012年から2019年にかけて44倍に減少した。
これは、アルゴリズムの効率が7年間に16ヶ月毎に倍増することに対応する。
我々は、ハードウェアとアルゴリズムの効率が乗じて増加し、意味のある地平線を越えて同様のスケールにすることができることを観察し、AIの進歩のよいモデルが両方の測度を統合するべきであることを示唆している。
論文 参考訳(メタデータ) (2020-05-08T22:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。