論文の概要: Adaptive Cyclic Diffusion for Inference Scaling
- arxiv url: http://arxiv.org/abs/2505.14036v1
- Date: Tue, 20 May 2025 07:31:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.861837
- Title: Adaptive Cyclic Diffusion for Inference Scaling
- Title(参考訳): 推論スケーリングのための適応サイクル拡散
- Authors: Gyubin Lee, Truong Nhat Nguyen Bao, Jaesik Yoon, Dongwoo Lee, Minsu Kim, Yoshua Bengio, Sungjin Ahn,
- Abstract要約: 適応的推論時間スケーリング-動的に計算量を調整するという課題について紹介する。
本稿では,適応型双方向サイクル拡散(ABCD)を提案する。
ABCDは、探索深度と終了を適応的に制御しながら、双方向拡散サイクルを通じて出力を洗練する。
- 参考スコア(独自算出の注目度): 68.58892778987936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have demonstrated strong generative capabilities across domains ranging from image synthesis to complex reasoning tasks. However, most inference-time scaling methods rely on fixed denoising schedules, limiting their ability to allocate computation based on instance difficulty or task-specific demands adaptively. We introduce the challenge of adaptive inference-time scaling-dynamically adjusting computational effort during inference-and propose Adaptive Bi-directional Cyclic Diffusion (ABCD), a flexible, search-based inference framework. ABCD refines outputs through bi-directional diffusion cycles while adaptively controlling exploration depth and termination. It comprises three components: Cyclic Diffusion Search, Automatic Exploration-Exploitation Balancing, and Adaptive Thinking Time. Experiments show that ABCD improves performance across diverse tasks while maintaining computational efficiency.
- Abstract(参考訳): 拡散モデルは、画像合成から複雑な推論タスクまで、領域間で強力な生成能力を示してきた。
しかし、ほとんどの推論時間スケーリング手法は、インスタンスの難易度やタスク固有の要求に応じて計算を割り当てる能力を制限し、スケジュールの定式化に依存している。
本稿では,適応的推論時間スケーリング-動的に計算作業を調整することの課題について紹介し,適応的双方向サイクル拡散(ABCD)を提案する。
ABCDは、探索深度と終了を適応的に制御しながら、双方向拡散サイクルを通じて出力を洗練する。
サイクル拡散探索、自動探索-探索バランシング、適応思考時間という3つのコンポーネントから構成される。
実験により、ABCDは計算効率を保ちながら、様々なタスクにおける性能を向上させることが示された。
関連論文リスト
- Dynamic Search for Inference-Time Alignment in Diffusion Models [87.35944312589424]
探索問題としての拡散における推論時間アライメントと動的拡散探索(DSearch)を提案する。
DSearchは、デノナイズプロセスからサブサンプルを取得し、中間ノードの報酬を近似する。
また、ビーム幅と木の拡大を動的に調整し、高次世代を効率的に探索する。
論文 参考訳(メタデータ) (2025-03-03T20:32:05Z) - FlexPrefill: A Context-Aware Sparse Attention Mechanism for Efficient Long-Sequence Inference [9.878232553789433]
大規模言語モデル(LLM)は、長時間の推論において計算上の問題に遭遇する。
これまでの努力は、固定されたスパース注意パターンや、限られたケースに基づくスパース注意パターンの同定に頼っていた。
我々はFlexPrefillを紹介した。FlexPrefillはフレキシブルなスパースプリフィル機構で、スパースアテンションパターンと計算予算をリアルタイムで動的に調整する。
論文 参考訳(メタデータ) (2025-02-28T06:34:53Z) - AdaCo: Overcoming Visual Foundation Model Noise in 3D Semantic Segmentation via Adaptive Label Correction [14.51758173099208]
本稿では,3次元セマンティックセグメンテーションのためのラベルのない新しい学習手法であるAdaptive Label Correction(AdaCo)を提案する。
AdaCoにはCLGM(Cross-modal Label Generation Module)が組み込まれている。
提案したAdaCoは,3次元セマンティックセグメンテーションタスクにおいて,ラベルなし学習ネットワークの性能制限を効果的に緩和することができる。
論文 参考訳(メタデータ) (2024-12-24T08:12:31Z) - HAAP: Vision-context Hierarchical Attention Autoregressive with Adaptive Permutation for Scene Text Recognition [17.412985505938508]
内部言語モデル(LM)に基づく手法は、外部のLMに基づく手法で条件独立性に起因する誤り訂正を解決するために置換言語モデリング(PLM)を用いる。
本稿では,アダプティブ・パーミューテーション(Adaptive Permutation, HAAP)を用いた階層的注意自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-05-15T06:41:43Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online
Adaptation [87.85851771425325]
我々は、人間のメッシュ再構成モデルをドメイン外ストリーミングビデオに適用する際の新しい問題を考える。
オンライン適応によってこの問題に対処し、テスト中のモデルのバイアスを徐々に修正します。
動的バイレベルオンライン適応アルゴリズム(DynaBOA)を提案する。
論文 参考訳(メタデータ) (2021-11-07T07:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。