論文の概要: Wasserstein Distributionally Robust Optimization via Wasserstein
Barycenters
- arxiv url: http://arxiv.org/abs/2203.12136v1
- Date: Wed, 23 Mar 2022 02:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 08:59:20.245255
- Title: Wasserstein Distributionally Robust Optimization via Wasserstein
Barycenters
- Title(参考訳): Wasserstein BarycentersによるWasserstein分布ロバスト最適化
- Authors: Tim Tsz-Kit Lau, Han Liu
- Abstract要約: 確率分布の一定距離内にデータサンプルから構築した名目分布から,最も有害な分布下で良好に機能するデータ駆動決定を求める。
本稿では,複数の情報源からのデータサンプルの集約として,Wasserstein Barycenterという概念を用いて,分散的に頑健な最適化問題における名目分布を構築することを提案する。
- 参考スコア(独自算出の注目度): 10.103413548140848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many applications in statistics and machine learning, the availability of
data samples from multiple sources has become increasingly prevalent. On the
other hand, in distributionally robust optimization, we seek data-driven
decisions which perform well under the most adverse distribution from a nominal
distribution constructed from data samples within a certain distance of
probability distributions. However, it remains unclear how to achieve such
distributional robustness when data samples from multiple sources are
available. In this paper, we propose constructing the nominal distribution in
Wasserstein distributionally robust optimization problems through the notion of
Wasserstein barycenter as an aggregation of data samples from multiple sources.
Under specific choices of the loss function, the proposed formulation admits a
tractable reformulation as a finite convex program, with powerful finite-sample
and asymptotic guarantees. We illustrate our proposed method through concrete
examples with nominal distributions of location-scatter families and
distributionally robust maximum likelihood estimation.
- Abstract(参考訳): 統計学や機械学習の多くの応用において、複数のソースからのデータサンプルが利用できるようになっている。
一方,分布にロバストな最適化では,確率分布の一定範囲内のデータサンプルから構築した名目分布から,最も悪質な分布下において良好に機能するデータ駆動決定を求める。
しかし、複数のソースからのデータサンプルが利用できる場合、このような分散的堅牢性を達成する方法はまだ不明である。
本稿では,複数のソースから収集したデータサンプルの集約として,wasserstein barycenter の概念を用いて,分布的ロバストな最適化問題における名目分布を構築することを提案する。
損失関数の特定の選択の下で、提案された定式化は、強力な有限サンプルと漸近的保証を持つ有限凸プログラムとして扱いやすい再構成を認める。
提案手法は, 位置散乱関数の公称分布と分布的にロバストな最大確率推定を具体例で示す。
関連論文リスト
- Sourcerer: Sample-based Maximum Entropy Source Distribution Estimation [5.390514665166601]
本稿では,最大エントロピー分布,すなわち可能な限り不確実性を維持することを優先する手法を提案する。
提案手法は,Sliced-Wasserstein距離を利用して,データセットとシミュレーションの差分を測定する。
提案手法の有用性を実証するために,何千もの測定値を持つ実験データセットから,ホジキン・ホクスリーニューロンモデルのパラメータのソース分布を推定する。
論文 参考訳(メタデータ) (2024-02-12T17:13:02Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Guaranteed Optimal Generative Modeling with Maximum Deviation from the
Empirical Distribution [0.0]
ジェネレーティブ・モデリング(Generative Modeling)は、科学および産業分野で様々な用途に応用された機械学習手法である。
その主な目的は、トレーニングデータから得られた未知の分布から引き出された新しいサンプルをシミュレートし、多様性を確保し、トレーニングデータからのサンプルの複製を避けることである。
本稿では, 実データ生成分布を学習データ生成分布に置き換える誤差は, サンプルサイズが無限大に近づくにつれて, 最適に0に収束する必要があり, トレーニングデータ中の任意の分布複製例から, 学習データ生成分布が十分遠く離れるべきである,という2つの特性を持つ生成モデルのトレーニングに関する理論的知見を示す。
論文 参考訳(メタデータ) (2023-07-31T06:11:57Z) - Two-Stage Robust and Sparse Distributed Statistical Inference for
Large-Scale Data [18.34490939288318]
本稿では,高次元データやオフレーヤによって汚染される可能性のある大規模データを含む設定において,統計的推論を行うという課題に対処する。
空間性を促進することによって高次元モデルに対処する2段階の分散および頑健な統計的推論手法を提案する。
論文 参考訳(メタデータ) (2022-08-17T11:17:47Z) - Robust Calibration with Multi-domain Temperature Scaling [86.07299013396059]
我々は,複数の領域からのデータを活用することで,分散シフトを処理するシステムキャリブレーションモデルを開発した。
提案手法は,分布シフト時のキャリブレーションを改善するために,領域内のロバスト性を利用する。
論文 参考訳(メタデータ) (2022-06-06T17:32:12Z) - Data-Driven Approximations of Chance Constrained Programs in
Nonstationary Environments [3.126118485851773]
確率制約プログラムのサンプル平均近似(SAA)について検討する。
この問題の非定常変種を考えると、ランダムサンプルは逐次的に独立に描画されると仮定される。
本稿では,データ生成分布列と実確率制約分布との間のワッサーシュタイン距離の情報を利用した,ロバストなSAA手法を提案する。
論文 参考訳(メタデータ) (2022-05-08T01:01:57Z) - Wrapped Distributions on homogeneous Riemannian manifolds [58.720142291102135]
パラメータ、対称性、モダリティなどの分布の性質の制御は、フレキシブルな分布の族を生み出す。
変動型オートエンコーダと潜在空間ネットワークモデル内で提案した分布を利用して,我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2022-04-20T21:25:21Z) - Variational Wasserstein Barycenters with c-Cyclical Monotonicity [17.26436842450489]
我々は,入力分布へのサンプルアクセスを前提とした,ワッサーシュタイン・バリセンタ問題に対する新しい連続近似法を開発した。
本手法の収束に関する理論的解析を行い, 後続アグリゲーションと合成データの実際の応用における実効性を実証する。
論文 参考訳(メタデータ) (2021-10-22T11:06:50Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Stochastic Saddle-Point Optimization for Wasserstein Barycenters [69.68068088508505]
オンラインデータストリームによって生成される有限個の点からなるランダムな確率測度に対する人口推定バリセンタ問題を考察する。
本稿では,この問題の構造を用いて,凸凹型サドル点再構成を行う。
ランダム確率測度の分布が離散的な場合、最適化アルゴリズムを提案し、その複雑性を推定する。
論文 参考訳(メタデータ) (2020-06-11T19:40:38Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。