論文の概要: Principled learning method for Wasserstein distributionally robust
optimization with local perturbations
- arxiv url: http://arxiv.org/abs/2006.03333v2
- Date: Mon, 22 Jun 2020 16:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 02:49:43.888325
- Title: Principled learning method for Wasserstein distributionally robust
optimization with local perturbations
- Title(参考訳): 局所摂動を用いたワッサーシュタイン分布ロバスト最適化の原理学習法
- Authors: Yongchan Kwon, Wonyoung Kim, Joong-Ho Won, Myunghee Cho Paik
- Abstract要約: ワッサーシュタイン分布論的ロバスト最適化(WDRO)は、実験データ分布近傍の局所的な最悪のリスクを最小限に抑えるモデルを学習しようとする。
本稿では,新しい近似定理に基づく最小化器を提案し,それに対応するリスク一貫性結果を提供する。
提案手法は,ノイズのあるデータセットのベースラインモデルよりも精度が高いことを示す。
- 参考スコア(独自算出の注目度): 21.611525306059985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wasserstein distributionally robust optimization (WDRO) attempts to learn a
model that minimizes the local worst-case risk in the vicinity of the empirical
data distribution defined by Wasserstein ball. While WDRO has received
attention as a promising tool for inference since its introduction, its
theoretical understanding has not been fully matured. Gao et al. (2017)
proposed a minimizer based on a tractable approximation of the local worst-case
risk, but without showing risk consistency. In this paper, we propose a
minimizer based on a novel approximation theorem and provide the corresponding
risk consistency results. Furthermore, we develop WDRO inference for locally
perturbed data that include the Mixup (Zhang et al., 2017) as a special case.
We show that our approximation and risk consistency results naturally extend to
the cases when data are locally perturbed. Numerical experiments demonstrate
robustness of the proposed method using image classification datasets. Our
results show that the proposed method achieves significantly higher accuracy
than baseline models on noisy datasets.
- Abstract(参考訳): wasserstein distributionally robust optimization (wdro) は、waserstein ballによって定義された経験的データ分布の近傍で局所的な最悪のケースリスクを最小限に抑えるモデルを学ぶことを試みる。
WDROは導入以来、推論のための有望なツールとして注目されてきたが、理論的な理解は完全には成熟していない。
gao et al. (2017) は局所的最悪のケースリスクの扱いやすい近似に基づく最小化を提案したが、リスク一貫性は示さなかった。
本稿では,新しい近似定理に基づく最小化器を提案し,それに対応するリスク一貫性結果を提供する。
さらに,特別なケースとしてMixup(Zhang et al., 2017)を含む局所摂動データに対するWDRO推論を開発した。
我々の近似とリスク一貫性は、データが局所的に摂動している場合にも自然に拡張されることを示す。
数値実験により,画像分類データセットを用いた提案手法のロバスト性を示す。
提案手法は,ノイズのあるデータセットのベースラインモデルよりも精度が高いことを示す。
関連論文リスト
- STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [86.90934467346902]
情報指向サンプリングは、情報ゲインで後悔を増すことによって、それを行おうとする。
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
提案アルゴリズムは計算に手頃な価格であり,いくつかの先行手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Learning from a Biased Sample [5.162622771922123]
本稿では,テスト分布のファミリーで発生する最悪のリスクを最小限に抑える決定ルールの学習方法を提案する。
我々は,盗難手法を用いてロバストなモデルを学習するための統計的保証を与え,損失関数がターゲットを捕捉する深層学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-05T04:19:16Z) - Optimizing the Performative Risk under Weak Convexity Assumptions [0.0]
性能予測において、予測モデルは将来のデータを生成する分布に影響を与える。
これまでの研究では、損失に関する一般的な条件とモデルパラメータから分布へのマッピングが特定されており、凸性はパフォーマンスリスクを意味する。
本稿では,反復最適化法における性能最小化リスク問題の回避性を犠牲にすることなく,これらの仮定を緩和する。
論文 参考訳(メタデータ) (2022-09-02T01:07:09Z) - Distributionally Robust Model-Based Offline Reinforcement Learning with
Near-Optimal Sample Complexity [36.59336682354851]
オフライン強化学習は、積極的に探索することなく、履歴データから意思決定を行うことを学習することを目的としている。
環境の不確実性や変動性から,デプロイされた環境が,ヒストリデータセットの収集に使用される名目上のものから逸脱した場合でも,良好に機能するロバストなポリシーを学ぶことが重要である。
分布的ロバストな値と不確実性に直面した悲観主義の原理を組み合わせたモデルに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-11T11:55:31Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Near-optimal inference in adaptive linear regression [52.92329015445238]
最小二乗推定において分布異常を補正するオンラインデバイアス推定器を提案する。
データ収集過程の温和な条件下で,提案したオンラインデバイアス推定器の正規性特性を確立する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Robust Reconfigurable Intelligent Surfaces via Invariant Risk and Causal
Representations [55.50218493466906]
本稿では,データ分布の変化に伴うロバスト再構成可能なインテリジェントサーフェス(ris)システム設計の問題について検討する。
不変リスク最小化(IRM)の概念を用いて、複数の環境にまたがる不変因果表現を用いて、予測器が各環境に対して同時に最適となるようにする。
予測器を探すためにニューラルネットワークベースのソリューションを採用し、その性能は経験的リスク最小化に基づく設計に対するシミュレーションによって検証される。
論文 参考訳(メタデータ) (2021-05-04T21:36:31Z) - Distributionally Robust Local Non-parametric Conditional Estimation [22.423052432220235]
非パラメトリックな局所推定を生成する分布安定な新しい推定器を提案する。
一般には難解であるにもかかわらず、局所推定器は凸最適化によって効率的に見つけることができることを示す。
合成およびMNISTデータセットを用いた実験は、この新しいクラスの推定器の競合性能を示している。
論文 参考訳(メタデータ) (2020-10-12T00:11:17Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - A Stochastic Subgradient Method for Distributionally Robust Non-Convex
Learning [2.007262412327553]
堅牢性は、基礎となるデータ分布の不確実性に関するものです。
本手法は摂動条件を満たすことに収束することを示す。
また、実際のデータセット上でのアルゴリズムの性能についても解説する。
論文 参考訳(メタデータ) (2020-06-08T18:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。