論文の概要: Sample, Scrutinize and Scale: Effective Inference-Time Search by Scaling Verification
- arxiv url: http://arxiv.org/abs/2502.01839v1
- Date: Mon, 03 Feb 2025 21:31:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:49.340898
- Title: Sample, Scrutinize and Scale: Effective Inference-Time Search by Scaling Verification
- Title(参考訳): サンプル, Scrutinize, Scale:スケーリング検証による効果的な推論時間探索
- Authors: Eric Zhao, Pranjal Awasthi, Sreenivas Gollapudi,
- Abstract要約: 本研究では,サンプリングに基づく探索を規定するスケーリング傾向について検討する。
ランダムサンプリングと直接自己検証のみを用いる最小限の実装を単純にスケールアップするだけで、パフォーマンスが持続的に向上することがわかった。
テスト時間計算で自己検証能力を改善するための2つの有用な原則を同定する。
- 参考スコア(独自算出の注目度): 35.347715518778095
- License:
- Abstract: Sampling-based search, a simple paradigm for utilizing test-time compute, involves generating multiple candidate responses and selecting the best one -- typically by verifying each response for correctness. In this paper, we study the scaling trends governing sampling-based search. Among our findings is that simply scaling up a minimalist implementation that uses only random sampling and direct self-verification results in sustained performance improvements that, for example, elevate the Gemini v1.5 Pro model's reasoning capabilities past that of o1-Preview on popular benchmarks. We partially attribute the scalability of sampling-based search to a phenomenon of implicit scaling, where sampling a larger pool of responses in turn improves verification accuracy. We further identify two useful principles for improving self-verification capabilities with test-time compute: (1) comparing across responses provides helpful signals about the locations of errors and hallucinations, and (2) different model output styles are useful for different contexts -- chains of thought are useful for reasoning but harder to verify. We also find that, though accurate verification can be elicited, frontier models demonstrate remarkably weak out-of-box verification capabilities and introduce a benchmark to measure progress on these deficiencies.
- Abstract(参考訳): サンプリングベースの検索は、テスト時間計算を利用するためのシンプルなパラダイムであり、複数の候補応答を生成し、最適な応答を選択する。
本稿では,サンプリングベースサーチを規定するスケーリング傾向について検討する。
我々の発見の中では、ランダムサンプリングと直接自己検証のみを使用するミニマリスト実装を単純にスケールアップするだけで、持続的なパフォーマンス改善を実現でき、例えば、人気のあるベンチマークのo1-PreviewよりもGemini v1.5 Proモデルの推論能力を高めることができる。
我々は,サンプリングベース検索のスケーラビリティを暗黙のスケーリング現象とみなし,より大きな応答プールをサンプリングすることで,検証精度を向上する。
1) 反応を比較することで、エラーや幻覚の位置に関する有益なシグナルが得られ、(2) 異なるモデルのアウトプットスタイルは異なるコンテキストに役立ちます。
また、正確な検証は可能であるが、フロンティアモデルでは、ボックス外検証能力が著しく弱いことが示され、これらの欠陥の進捗を計測するためのベンチマークが導入されている。
関連論文リスト
- Diversified Sampling Improves Scaling LLM inference [31.18762591875725]
DivSamplingは、候補解の多様性を高めるために設計された、斬新で多用途なサンプリング技術である。
理論解析により, 微妙な仮定の下では, 種々のプロンプトから発生する応答の誤り率は, 定常プロンプトによる応答よりも有意に低いことが示された。
論文 参考訳(メタデータ) (2025-02-16T07:37:58Z) - Scaling Flaws of Verifier-Guided Search in Mathematical Reasoning [16.824343439487617]
大規模言語モデル(LLM)は、推論時間スケーリングがパフォーマンス改善のための有望な戦略として現れている、多段階推論に苦しむ。
検証者誘導探索は、有効な推論経路を選択して優先順位付けすることにより、サンプリングサイズが制限されたときに繰り返しサンプリングより優れる。
サンプルサイズが大きくなるにつれて、検証者誘導探索は利点を減らし、最終的には繰り返しサンプリングを過小評価する。
論文 参考訳(メタデータ) (2025-02-01T02:08:49Z) - Evaluation Agent: Efficient and Promptable Evaluation Framework for Visual Generative Models [51.067146460271466]
視覚生成モデルの評価には時間を要するし、計算コストもかかる。
本研究では,効率的,動的,多ラウンドな評価に人間的な戦略を用いる評価エージェントフレームワークを提案する。
1)効率性、2)多様なユーザニーズに合わせた迅速な評価、3)1つの数値スコア以上の説明可能性、4)さまざまなモデルやツールのスケーラビリティ。
論文 参考訳(メタデータ) (2024-12-10T18:52:39Z) - Optimal Algorithms for Augmented Testing of Discrete Distributions [25.818433126197036]
予測器は3つのプロパティテストタスクすべてに必要なサンプル数を実際に削減できることを示す。
我々のアルゴリズムの重要な利点は、予測の精度への適応性である。
アルゴリズムによって達成されるサンプルの複雑さの改善は、情報理論的に最適であることを示すために、より低い境界を提供する。
論文 参考訳(メタデータ) (2024-12-01T21:31:22Z) - Large Language Monkeys: Scaling Inference Compute with Repeated Sampling [81.34900892130929]
モデルから候補解を繰り返しサンプリングする簡単な手法を用いて、推論計算をスケーリングのための別の軸として検討する。
複数のタスクやモデルにまたがって、カバレッジは4桁以上のサンプル数でスケールする。
コードや形式的証明のようなドメインでは、回答が自動的に検証されるので、カバレッジの増加は直接的にパフォーマンスの向上につながります。
論文 参考訳(メタデータ) (2024-07-31T17:57:25Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - POODLE: Improving Few-shot Learning via Penalizing Out-of-Distribution
Samples [19.311470287767385]
そこで本研究では,対象クラス外からのラベル付きサンプルの配布外サンプルを用いて,数発の学習を改善することを提案する。
提案手法は, 実装が簡単で, 特徴抽出器に非依存であり, 事前学習に要する追加コストを伴わず軽量であり, インダクティブ設定とトランスダクティブ設定の両方に適用可能である。
論文 参考訳(メタデータ) (2022-06-08T18:59:21Z) - Boost Test-Time Performance with Closed-Loop Inference [85.43516360332646]
そこで本研究では,モデル性能を高めるために,ループ方式でハードクラス化試験サンプルを予測することを提案する。
まず、追加の推論ループを必要とするハードクラス化テストサンプルを識別するためにフィルタリング基準を考案する。
各ハードサンプルに対して、モデルのキャリブレーションを行うために、元の上位$K$予測に基づいて補助学習タスクを構築する。
論文 参考訳(メタデータ) (2022-03-21T10:20:21Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。