論文の概要: Distributionally Robust Optimization via Generative Ambiguity Modeling
- arxiv url: http://arxiv.org/abs/2602.08976v1
- Date: Mon, 09 Feb 2026 18:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.415841
- Title: Distributionally Robust Optimization via Generative Ambiguity Modeling
- Title(参考訳): 生成的曖昧性モデリングによる分布ロバスト最適化
- Authors: Jiaqi Wen, Jianyi Yang,
- Abstract要約: 分散ロバスト最適化(DRO)のための効果的なあいまいさは、名目分布に一貫性のある分布を伴わなければならない。
本稿では,名目サポート空間を超えて,様々な逆分布をキャプチャする生成モデルに基づく曖昧性集合を提案する。
本稿では,GAS-DRO(Generative Ambiguity Set)がパラメータ化された生成モデル空間上の内部を解くことのできるDROであることを示す。
- 参考スコア(独自算出の注目度): 6.563774552767813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies Distributionally Robust Optimization (DRO), a fundamental framework for enhancing the robustness and generalization of statistical learning and optimization. An effective ambiguity set for DRO must involve distributions that remain consistent to the nominal distribution while being diverse enough to account for a variety of potential scenarios. Moreover, it should lead to tractable DRO solutions. To this end, we propose generative model-based ambiguity sets that capture various adversarial distributions beyond the nominal support space while maintaining consistency with the nominal distribution. Building on this generative ambiguity modeling, we propose DRO with Generative Ambiguity Set (GAS-DRO), a tractable DRO algorithm that solves the inner maximization over the parameterized generative model space. We formally establish the stationary convergence performance of GAS-DRO. We implement GAS-DRO with a diffusion model and empirically demonstrate its superior Out-of-Distribution (OOD) generalization performance in ML tasks.
- Abstract(参考訳): 本稿では,統計的学習と最適化の堅牢性と一般化を向上するための基礎的枠組みである分散ロバスト最適化(DRO)について検討する。
DROの効果的なあいまいさは、様々な潜在的なシナリオを考慮に入れられるほど多様でありながら、名目分布と整合性を維持した分布を伴わなければならない。
さらに、これは引き込み可能なDROソリューションにつながるはずである。
そこで本稿では, 正規分布との整合性を維持しつつ, 正規支持空間を超えて様々な逆分布を捕捉する生成モデルに基づく曖昧性集合を提案する。
この生成曖昧性モデリングに基づいて,パラメータ化された生成モデル空間上での内的最大化を解く抽出可能なDROアルゴリズムである生成曖昧性セット(GAS-DRO)を用いたDROを提案する。
我々はGAS-DROの定常収束性能を正式に確立する。
我々は拡散モデルを用いてGAS-DROを実装し、MLタスクにおいて優れたOOD(Out-of-Distribution)一般化性能を実証的に示す。
関連論文リスト
- Distributionally Robust Optimization via Diffusion Ambiguity Modeling [6.563774552767813]
分散ロバスト最適化(DRO)のための効果的なあいまいさは、名目分布と整合した分布を伴わなければならない。
本稿では,拡散に基づくあいまい性集合の設計を提案する。
次に、内部パラメータ拡散モデル空間を解くためのトラクタブルDROアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-10-26T17:11:50Z) - Distributionally Robust Optimization with Adversarial Data Contamination [49.89480853499918]
凸リプシッツ損失関数を持つ一般化線形モデルに対するワッサーシュタイン-1 DRO 目標の最適化に焦点をあてる。
私たちの主な貢献は、データ汚染のトレーニングに対するロバストネスと分散シフトに対するロバストネスを統合した、新しいモデリングフレームワークです。
この研究は、データ汚染と分散シフトという2つの課題の下で学習するために、効率的な計算によって支援される最初の厳密な保証を確立する。
論文 参考訳(メタデータ) (2025-07-14T18:34:10Z) - Distributionally and Adversarially Robust Logistic Regression via Intersecting Wasserstein Balls [8.720733751119994]
提案手法は,提案手法が標準データセットのベンチマーク手法よりも優れていることを示す。
前者からインスピレーションを得て、ロジスティック回帰のためにAROのワッサーシュタイン DR について検討し、トラクタブル凸最適化の修正が認められることを示す。
論文 参考訳(メタデータ) (2024-07-18T15:59:37Z) - Hedging Complexity in Generalization via a Parametric Distributionally
Robust Optimization Framework [18.6306170209029]
経験的リスク最小化(ERM)と分散ロバスト最適化(DRO)は最適化問題の解法として一般的な手法である。
本稿では,パラメトリックな分布系列を用いて乱摂動分布を近似する簡単な手法を提案する。
この新たな誤差源は適切なDRO定式化によって制御可能であることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:26:34Z) - Distributed Distributionally Robust Optimization with Non-Convex
Objectives [24.64654924173679]
Asynchronous Single-looP alternatIve gRadient projEction という非同期分散アルゴリズムを提案する。
新しい不確実性集合、すなわち制約付きD-ノルムの不確実性集合は、以前の分布を利用し、強靭性の度合いを柔軟に制御するために開発される。
実世界のデータセットに関する実証研究は、提案手法が高速収束を達成できるだけでなく、悪意のある攻撃だけでなく、データに対する堅牢性も維持できることを示した。
論文 参考訳(メタデータ) (2022-10-14T07:39:13Z) - Federated Distributionally Robust Optimization for Phase Configuration
of RISs [106.4688072667105]
我々は、教師付き学習環境において、多種多様なRISタイプ上での堅牢な再構成可能なインテリジェントサーフェス(RIS)支援ダウンリンク通信の問題について検討する。
異種RIS設計上のダウンリンク通信を分散的に位相構成を最適化する方法を学ぶ異なる労働者としてモデル化することにより、分散学習問題を解決することができる。
提案アルゴリズムは, 競合するベースラインと比較して, 最悪の分布精度を実現するために, 通信ラウンドを少なくする必要がある。
論文 参考訳(メタデータ) (2021-08-20T07:07:45Z) - DORO: Distributional and Outlier Robust Optimization [98.44757325531631]
本稿では,分散ロバスト最適化のためのDOROのフレームワークを提案する。
このアプローチのコアとなるのは、DROがオーバーフィットして潜在的な外れ値に収まらないような、洗練されたリスク関数である。
提案手法の有効性を理論的に証明し, DOROがDROの性能と安定性を向上することを示す。
論文 参考訳(メタデータ) (2021-06-11T02:59:54Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z) - Distributionally Robust Bayesian Optimization [121.71766171427433]
そこで本研究では,ゼロ次雑音最適化のための分散ロバストなベイズ最適化アルゴリズム(DRBO)を提案する。
提案アルゴリズムは, 種々の設定において, 線形に頑健な後悔を確実に得る。
提案手法は, 実世界のベンチマークと実世界のベンチマークの両方において, 頑健な性能を示す。
論文 参考訳(メタデータ) (2020-02-20T22:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。