論文の概要: Robust Generalization with Adaptive Optimal Transport Priors for Decision-Focused Learning
- arxiv url: http://arxiv.org/abs/2602.01427v1
- Date: Sun, 01 Feb 2026 20:22:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.777832
- Title: Robust Generalization with Adaptive Optimal Transport Priors for Decision-Focused Learning
- Title(参考訳): 決定焦点学習のための適応的最適輸送優先を用いたロバスト一般化
- Authors: Haixiang Sun, Andrew L. Liu,
- Abstract要約: わずかなショット学習では、限定的な監督の下でモデルを一般化し、分散シフトに頑健なままにしておく必要がある。
本稿では,豊富なベースデータからクラス適応型事前学習を行うプロトタイプ型分散ロバスト最適化フレームワークを提案する。
実験により, PG-DROは, 標準学習者およびDROベースラインよりも優れ, 少数のシナリオにおいて強靭な一般化を実現することが示された。
- 参考スコア(独自算出の注目度): 2.7214777196418645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning requires models to generalize under limited supervision while remaining robust to distribution shifts. Existing Sinkhorn Distributionally Robust Optimization (DRO) methods provide theoretical guarantees but rely on a fixed reference distribution, which limits their adaptability. We propose a Prototype-Guided Distributionally Robust Optimization (PG-DRO) framework that learns class-adaptive priors from abundant base data via hierarchical optimal transport and embeds them into the Sinkhorn DRO formulation. This design enables few-shot information to be organically integrated into producing class-specific robust decisions that are both theoretically grounded and efficient, and further aligns the uncertainty set with transferable structural knowledge. Experiments show that PG-DRO achieves stronger robust generalization in few-shot scenarios, outperforming both standard learners and DRO baselines.
- Abstract(参考訳): わずかなショット学習では、限定的な監督の下でモデルを一般化し、分散シフトに頑健なままにしておく必要がある。
既存のシンクホーン分布ロバスト最適化法(DRO)は理論的な保証を提供するが、それらの適応性を制限する固定された参照分布に依存している。
本稿では,階層的最適輸送による豊富なベースデータからクラス適応前処理を学習し,Sinkhorn DROの定式化に組み込むPG-DRO(Prototype-Guided Distributionally Robust Optimization)フレームワークを提案する。
この設計により、理論上は根拠があり、効率的であるクラス固有の堅牢な決定を生み出すために、少数ショット情報を有機的に統合することができ、さらに不確実性セットを伝達可能な構造知識と整合させることができる。
実験により, PG-DROは, 標準学習者およびDROベースラインよりも優れ, 少数のシナリオにおいて強靭な一般化を実現することが示された。
関連論文リスト
- Group Distributionally Robust Optimization-Driven Reinforcement Learning for LLM Reasoning [45.86058898829962]
Multi-Ad Distributionally Robust Optimization (GDRO)は、一様推論を超えて最適化第一のフレームワークである。
本稿では,EMA-debiased multiplicative-weight bandit samplerを用いて,周波数バイアスを伴わない集中的難易マージンと過度にハードなグループをターゲットとした2つの独立したGDROゲームと,グループ間のロールアウトをシャドウプライスコントローラで再配置し,固定平均予算下でのハードタスクの勾配分散低減を最大化するRollout-GDROを提案する。
Qを用いたDAPO 14.1kデータセット上でのフレームワークの検証
論文 参考訳(メタデータ) (2026-01-27T07:10:41Z) - Adaptive Sample-Level Framework Motivated by Distributionally Robust Optimization with Variance-Based Radius Assignment for Enhanced Neural Network Generalization Under Distribution Shift [0.8101875496469488]
経験的リスク最小化(ERM)を用いて訓練された深層ニューラルネットワークの信頼性を損なう場合が多い。
本稿では、リスクの高いトレーニングサンプルを自動的に識別し、オンラインの損失分散に基づいて個人化されたロバスト性予算を割り当てる分散駆動型サンプルレベルDROフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-04T10:20:21Z) - Distributionally Robust Optimization via Diffusion Ambiguity Modeling [6.563774552767813]
分散ロバスト最適化(DRO)のための効果的なあいまいさは、名目分布と整合した分布を伴わなければならない。
本稿では,拡散に基づくあいまい性集合の設計を提案する。
次に、内部パラメータ拡散モデル空間を解くためのトラクタブルDROアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-10-26T17:11:50Z) - Statistical Analysis of Conditional Group Distributionally Robust Optimization with Cross-Entropy Loss [16.1456465253627]
本研究では、複数のソースドメインからラベル付きデータを入手でき、対象ドメインからラベルなしデータのみを観測できるマルチソース非教師付きドメイン適応について検討する。
本稿では,情報源領域からの条件付き結果分布の凸結合を最小化することにより,分類器を学習するグループ分散条件最適化フレームワークを提案する。
実験的なCG-DRO推定器の高速な統計的収束速度を,理論ブリッジとして機能する2つの代理極小最適化問題を構築することにより確立する。
論文 参考訳(メタデータ) (2025-07-14T04:21:23Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - DRAUC: An Instance-wise Distributionally Robust AUC Optimization
Framework [133.26230331320963]
ROC曲線のエリア(AUC)は、長い尾の分類のシナリオにおいて広く用いられている指標である。
本研究では,分散ロバストAUC(DRAUC)のインスタンスワイドサロゲート損失を提案し,その上に最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-11-06T12:15:57Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。