論文の概要: Thermodynamic Focusing for Inference-Time Search: Practical Methods for Target-Conditioned Sampling and Prompted Inference
- arxiv url: http://arxiv.org/abs/2512.19717v1
- Date: Tue, 16 Dec 2025 09:39:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.587438
- Title: Thermodynamic Focusing for Inference-Time Search: Practical Methods for Target-Conditioned Sampling and Prompted Inference
- Title(参考訳): 推論時間探索のための熱力学的焦点:目標設定サンプリングとプロンプテッド推論のための実践的手法
- Authors: Zhan Zhang,
- Abstract要約: 本稿では,探索を目標条件付き再重み付け処理として扱うフレームワークを提案する。
ICFAは、利用可能な提案サンプルとタスク固有の類似関数を再利用し、焦点を絞ったサンプリング分布を形成する。
構造化されたプロンプトが、ICFAの言語レベルの近似形式をインスタンス化する方法を示し、帰納的推論とアルゴリズムの重み付けを組み合わせたハイブリッドアーキテクチャを記述する。
- 参考スコア(独自算出の注目度): 8.489464814859442
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Finding rare but useful solutions in very large candidate spaces is a recurring practical challenge across language generation, planning, and reinforcement learning. We present a practical framework, \emph{Inverted Causality Focusing Algorithm} (ICFA), that treats search as a target-conditioned reweighting process. ICFA reuses an available proposal sampler and a task-specific similarity function to form a focused sampling distribution, while adaptively controlling focusing strength to avoid degeneracy. We provide a clear recipe, a stability diagnostic based on effective sample size, a compact theoretical sketch explaining when ICFA can reduce sample needs, and two reproducible experiments: constrained language generation and sparse-reward navigation. We further show how structured prompts instantiate an approximate, language-level form of ICFA and describe a hybrid architecture combining prompted inference with algorithmic reweighting.
- Abstract(参考訳): 非常に大きな候補空間で稀だが有用なソリューションを見つけることは、言語生成、計画、強化学習にまたがる実践的な課題である。
本稿では,探索を目標条件付き再重み付け処理として扱う実践的フレームワークである「emph{Inverted Causality Focusing Algorithm} (ICFA)」を提案する。
ICFAは、利用可能な提案サンプルとタスク固有の類似関数を再利用し、焦点を絞ったサンプリング分布を形成し、縮退を避けるために集中力を適応的に制御する。
提案手法は, 有効サンプルサイズに基づく安定性診断, ICFAがいつサンプルニーズを低減できるかを説明するコンパクトな理論的スケッチ, および2つの再現可能な実験, 制約付き言語生成とスパース・リワードナビゲーションを提供する。
さらに、構造化されたプロンプトが、ICFAの言語レベルの近似形式をどのようにインスタンス化するかを示し、帰納的推論とアルゴリズムの重み付けを組み合わせたハイブリッドアーキテクチャを記述する。
関連論文リスト
- Topic Identification in LLM Input-Output Pairs through the Lens of Information Bottleneck [0.0]
幾何学的クラスタリングのための決定論的情報ボトルネック(DIB)に基づく基本的トピック識別手法を開発した。
我々の重要な貢献は、DIB法を計算効率の良い上界を持つ難解なKL発散項に代えて、高次元データのための実用的なアルゴリズムに変換することである。
論文 参考訳(メタデータ) (2025-08-26T20:00:51Z) - Adaptive Inference-Time Scaling via Cyclic Diffusion Search [61.42700671176343]
適応的推論時間スケーリング-動的に計算量を調整するという課題について紹介する。
本稿では,適応型双方向サイクル拡散(ABCD)を提案する。
ABCDは、探索深度と終了を適応的に制御しながら、双方向拡散サイクルを通じて出力を洗練する。
論文 参考訳(メタデータ) (2025-05-20T07:31:38Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。