論文の概要: From Sequential to Recursive: Enhancing Decision-Focused Learning with Bidirectional Feedback
- arxiv url: http://arxiv.org/abs/2511.08035v1
- Date: Wed, 12 Nov 2025 01:35:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.608776
- Title: From Sequential to Recursive: Enhancing Decision-Focused Learning with Bidirectional Feedback
- Title(参考訳): 逐次から再帰:双方向フィードバックによる意思決定型学習の強化
- Authors: Xinyu Wang, Jinxiao Du, Yiyang Peng, Wei Ma,
- Abstract要約: DFL(Decision- Focus Learning)は、従来の予測テーマ最適化(PTO)パイプラインに代わる、エンドツーエンドの強力な代替手段として登場した。
既存のDFLフレームワークは、厳密なシーケンシャルな構造によって制限され、シーケンシャルなDFL(S-DFL)と呼ばれる。
- 参考スコア(独自算出の注目度): 25.1037007382501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision-focused learning (DFL) has emerged as a powerful end-to-end alternative to conventional predict-then-optimize (PTO) pipelines by directly optimizing predictive models through downstream decision losses. Existing DFL frameworks are limited by their strictly sequential structure, referred to as sequential DFL (S-DFL). However, S-DFL fails to capture the bidirectional feedback between prediction and optimization in complex interaction scenarios. In view of this, we first time propose recursive decision-focused learning (R-DFL), a novel framework that introduces bidirectional feedback between downstream optimization and upstream prediction. We further extend two distinct differentiation methods: explicit unrolling via automatic differentiation and implicit differentiation based on fixed-point methods, to facilitate efficient gradient propagation in R-DFL. We rigorously prove that both methods achieve comparable gradient accuracy, with the implicit method offering superior computational efficiency. Extensive experiments on both synthetic and real-world datasets, including the newsvendor problem and the bipartite matching problem, demonstrate that R-DFL not only substantially enhances the final decision quality over sequential baselines but also exhibits robust adaptability across diverse scenarios in closed-loop decision-making problems.
- Abstract(参考訳): 意思決定中心学習(DFL)は、下流の意思決定損失を通じて予測モデルを直接最適化することで、従来の予測テーマ最適化(PTO)パイプラインに代わる強力なエンドツーエンドの選択肢として登場した。
既存のDFLフレームワークは、厳密なシーケンシャルな構造によって制限され、シーケンシャルなDFL(S-DFL)と呼ばれる。
しかし、S-DFLは複雑な相互作用シナリオにおける予測と最適化の間の双方向のフィードバックを捉えられなかった。
これを踏まえて、下流最適化と上流予測の双方向フィードバックを導入する新しいフレームワークである再帰的意思決定型学習(R-DFL)を初めて提案する。
さらに、R-DFLにおける効率的な勾配伝播を容易にするために、自動微分による明示的解法と固定点法に基づく暗黙的微分法という2つの異なる微分法を拡張した。
両手法が同等の勾配精度を達成できることを厳密に証明し, 暗黙的手法により計算効率が向上することを示した。
ニュースベンダ問題やバイパートイトマッチング問題を含む、合成および実世界のデータセットに関する広範な実験は、R-DFLがシーケンシャルベースラインよりも最終決定品質を大幅に向上するだけでなく、クローズドループ決定問題における様々なシナリオにおける堅牢な適応性も示している。
関連論文リスト
- SPREAD: Sampling-based Pareto front Refinement via Efficient Adaptive Diffusion [0.8594140167290097]
SPREADは拡散確率モデル(DDPM)に基づく生成フレームワークである
決定空間からサンプリングされた点上の条件拡散過程を学習する。
適応的多重勾配降下インスパイアされた更新を高速収束に利用するサンプリングスキームにより、候補を洗練する。
論文 参考訳(メタデータ) (2025-09-25T12:09:37Z) - Prediction Loss Guided Decision-Focused Learning [33.28196791099554]
決定中心学習(DFL)は、決定品質を直接エンドツーエンドで最適化することで予測モデルを訓練する。
PFLはより安定した最適化をもたらすが、下流の意思決定品質を見落としている。
本稿では, 予測損失勾配を用いて決定損失勾配を摂動させ, 更新方向を構築するという, 単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2025-09-10T07:49:04Z) - Implicit Reward as the Bridge: A Unified View of SFT and DPO Connections [65.36449542323277]
本稿では,Large Language Model (LLM) 後の学習において,SFT(Supervised Fine-Tuning) と優先学習を統合した理論フレームワークを提案する。
そこで本研究では,学習率の簡易かつ効果的な削減手法を提案する。
論文 参考訳(メタデータ) (2025-06-15T05:42:29Z) - Online Decision-Focused Learning [74.3205104323777]
意思決定中心学習(DFL)は、意思決定タスクで予測出力が使用されるモデルのトレーニングパラダイムとして、ますます人気が高まっている。
本稿では,目的関数を規則化し,その相違を解消し,非最適関数を克服する方法を検討する。
また、クナップサック実験におけるアルゴリズムの有効性を示し、2つの標準ベンチマークを上回りました。
論文 参考訳(メタデータ) (2025-05-19T10:40:30Z) - Differentiable Distributionally Robust Optimization Layers [10.667165962654996]
パラメータ化二階円錐曖昧性集合を用いた混合整数DRO問題に対する微分可能なDRO層を開発する。
本稿では,決定の連続的な部分と離散的な部分を異なる原理で扱うことによって,新しい双対ビュー手法を提案する。
具体的には、双対ビュー手法を実装し、その勾配を推定するために重要サンプリングを利用するために、微分可能エネルギーベースサロゲートを構築した。
論文 参考訳(メタデータ) (2024-06-24T12:09:19Z) - DF2: Distribution-Free Decision-Focused Learning [30.288876294435294]
決定中心学習(DFL)は,予測列最適化問題に対する強力なアプローチとして登場した。
DFLはモデル誤差、サンプル平均近似誤差、近似誤差の3つのボトルネックに直面している。
本稿では,この3つのボトルネックを緩和する決定自由学習手法であるDF2を提案する。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。