論文の概要: Wasserstein Distributionally Robust Optimization Through the Lens of Structural Causal Models and Individual Fairness
- arxiv url: http://arxiv.org/abs/2509.26275v1
- Date: Tue, 30 Sep 2025 13:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.156937
- Title: Wasserstein Distributionally Robust Optimization Through the Lens of Structural Causal Models and Individual Fairness
- Title(参考訳): 構造因果モデルと個人フェアネスのレンズによるワッサーシュタイン分布ロバスト最適化
- Authors: Ahmad-Reza Ehyaei, Golnoosh Farnadi, Samira Samadi,
- Abstract要約: 我々は因果関係と個々人の公平性の観点からDRO問題を開発する。
次に、DRO問題をよりトラクタブルで計算効率の良い形式に変換するための効率的なツールとして、DRO双対定式化を提案する。
- 参考スコア(独自算出の注目度): 21.387312729118364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Wasserstein Distributionally Robust Optimization (DRO) has garnered substantial interest for its efficacy in data-driven decision-making under distributional uncertainty. However, limited research has explored the application of DRO to address individual fairness concerns, particularly when considering causal structures and sensitive attributes in learning problems. To address this gap, we first formulate the DRO problem from causality and individual fairness perspectives. We then present the DRO dual formulation as an efficient tool to convert the DRO problem into a more tractable and computationally efficient form. Next, we characterize the closed form of the approximate worst-case loss quantity as a regularizer, eliminating the max-step in the min-max DRO problem. We further estimate the regularizer in more general cases and explore the relationship between DRO and classical robust optimization. Finally, by removing the assumption of a known structural causal model, we provide finite sample error bounds when designing DRO with empirical distributions and estimated causal structures to ensure efficiency and robust learning.
- Abstract(参考訳): 近年,分散ロバスト最適化 (DRO) は,分散不確実性の下でのデータ駆動型意思決定における有効性に対して大きな関心を集めている。
しかし、DROの個人的公正性問題、特に学習問題における因果構造やセンシティブな属性を考慮する際には、限定的な研究によってDROの適用が検討されている。
このギャップに対処するために、まず、因果関係と個々人の公平性の観点からDRO問題を定式化する。
次に、DRO問題をよりトラクタブルで計算効率の良い形式に変換するための効率的なツールとして、DRO双対定式化を提案する。
次に、近似最悪の損失量の閉形式を正則化器として特徴付け、min-max DRO問題の最大ステップを排除した。
さらに、より一般的な場合における正規化器を推定し、DROと古典的ロバスト最適化の関係について検討する。
最後に、既知の構造因果モデルの仮定を除去することにより、DROを経験的分布で設計する際の有限サンプル誤差境界と、効率と堅牢な学習を保証するための推定因果構造を提供する。
関連論文リスト
- Distributionally Robust Optimization with Adversarial Data Contamination [49.89480853499918]
凸リプシッツ損失関数を持つ一般化線形モデルに対するワッサーシュタイン-1 DRO 目標の最適化に焦点をあてる。
私たちの主な貢献は、データ汚染のトレーニングに対するロバストネスと分散シフトに対するロバストネスを統合した、新しいモデリングフレームワークです。
この研究は、データ汚染と分散シフトという2つの課題の下で学習するために、効率的な計算によって支援される最初の厳密な保証を確立する。
論文 参考訳(メタデータ) (2025-07-14T18:34:10Z) - Distributionally Robust Optimization [8.750805813120898]
DROは、不確実な問題パラメータを管理する確率分布自体が不確実であるような不確実性の下で決定問題を研究する。
DROは、あいまいさセットで最悪の分布の下で最善を尽くす決定を求める。
近年の研究では、機械学習における正規化技術と敵の訓練との深い関係が明らかにされている。
論文 参考訳(メタデータ) (2024-11-04T19:32:24Z) - Distributionally and Adversarially Robust Logistic Regression via Intersecting Wasserstein Balls [8.720733751119994]
提案手法は,提案手法が標準データセットのベンチマーク手法よりも優れていることを示す。
前者からインスピレーションを得て、ロジスティック回帰のためにAROのワッサーシュタイン DR について検討し、トラクタブル凸最適化の修正が認められることを示す。
論文 参考訳(メタデータ) (2024-07-18T15:59:37Z) - Distributionally Robust Bayesian Optimization with $\varphi$-divergences [45.48814080654241]
我々は,$varphi$-divergencesにおけるデータシフトに対するロバスト性について考察する。
この設定におけるDRO-BO問題は有限次元最適化問題と等価であり、連続的な文脈でも証明可能な部分線型後悔境界で容易に実装できることを示す。
論文 参考訳(メタデータ) (2022-03-04T04:34:52Z) - When AUC meets DRO: Optimizing Partial AUC for Deep Learning with
Non-Convex Convergence Guarantee [51.527543027813344]
単方向および二方向部分AUC(pAUC)の系統的および効率的な勾配法を提案する。
一方通行と一方通行の pAUC に対して,2つのアルゴリズムを提案し,それぞれ2つの定式化を最適化するための収束性を証明した。
論文 参考訳(メタデータ) (2022-03-01T01:59:53Z) - Complexity-Free Generalization via Distributionally Robust Optimization [4.313143197674466]
分散ロバスト最適化(DRO)から解の一般化境界を得るための代替経路を提案する。
我々の DRO 境界は、あいまいな集合の幾何と真の損失関数との整合性に依存する。
特に、DRO距離計量として最大平均誤差を用いる場合、我々の分析は、我々の知識の最も良いところは、真の損失関数にのみ依存する文献における第一の一般化であることを示している。
論文 参考訳(メタデータ) (2021-06-21T15:19:52Z) - DORO: Distributional and Outlier Robust Optimization [98.44757325531631]
本稿では,分散ロバスト最適化のためのDOROのフレームワークを提案する。
このアプローチのコアとなるのは、DROがオーバーフィットして潜在的な外れ値に収まらないような、洗練されたリスク関数である。
提案手法の有効性を理論的に証明し, DOROがDROの性能と安定性を向上することを示す。
論文 参考訳(メタデータ) (2021-06-11T02:59:54Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。