論文の概要: Learning from a Biased Sample
- arxiv url: http://arxiv.org/abs/2209.01754v1
- Date: Mon, 5 Sep 2022 04:19:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:15:05.932366
- Title: Learning from a Biased Sample
- Title(参考訳): 偏りのあるサンプルから学ぶ
- Authors: Roshni Sahoo, Lihua Lei, Stefan Wager
- Abstract要約: 本稿では,テスト分布のファミリーで発生する最悪のリスクを最小限に抑える決定ルールの学習方法を提案する。
我々は,盗難手法を用いてロバストなモデルを学習するための統計的保証を与え,損失関数がターゲットを捕捉する深層学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.162622771922123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The empirical risk minimization approach to data-driven decision making
assumes that we can learn a decision rule from training data drawn under the
same conditions as the ones we want to deploy it under. However, in a number of
settings, we may be concerned that our training sample is biased, and that some
groups (characterized by either observable or unobservable attributes) may be
under- or over-represented relative to the general population; and in this
setting empirical risk minimization over the training set may fail to yield
rules that perform well at deployment. Building on concepts from
distributionally robust optimization and sensitivity analysis, we propose a
method for learning a decision rule that minimizes the worst-case risk incurred
under a family of test distributions whose conditional distributions of
outcomes $Y$ given covariates $X$ differ from the conditional training
distribution by at most a constant factor, and whose covariate distributions
are absolutely continuous with respect to the covariate distribution of the
training data. We apply a result of Rockafellar and Uryasev to show that this
problem is equivalent to an augmented convex risk minimization problem. We give
statistical guarantees for learning a robust model using the method of sieves
and propose a deep learning algorithm whose loss function captures our
robustness target. We empirically validate our proposed method in simulations
and a case study with the MIMIC-III dataset.
- Abstract(参考訳): データ駆動型意思決定に対する実証的リスク最小化アプローチでは、同じ条件下で描画されたトレーニングデータから決定ルールを学習できると仮定しています。
しかし、多くの環境では、トレーニングサンプルが偏りがあり、一部のグループ(観測可能な属性または観測不可能な属性によって特徴付けられる)が一般大衆に対して過度または過度に表現されている場合があり、この設定では、トレーニングセットに対する経験的リスク最小化が、デプロイメントにおいてうまく機能するルールの獲得に失敗する可能性がある。
分布的ロバストな最適化と感度解析から導かれる概念に基づいて,条件分布が与えられた条件分布$Y$と条件分布分布$X$と,条件分布分布が少なくとも一定の因子によって異なり,条件分布が訓練データの共変分布に対して絶対連続であるようなテスト分布の族で発生する最悪のケースリスクを最小化する決定ルールを学習する手法を提案する。
我々はRockafellar と Uryasev の結果を適用し、この問題が拡張凸リスク最小化問題と等価であることを示す。
シーブ法を用いてロバストモデルを学ぶための統計的保証を与え,ロバスト性目標を損失関数が捉えるディープラーニングアルゴリズムを提案する。
シミュレーションにおいて提案手法を実証的に検証し,MIMIC-IIIデータセットを用いたケーススタディを行った。
関連論文リスト
- Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Risk Consistent Multi-Class Learning from Label Proportions [64.0125322353281]
本研究は,バッグにトレーニングインスタンスを提供するMCLLP設定によるマルチクラス学習に対処する。
既存のほとんどのMCLLPメソッドは、インスタンスの予測や擬似ラベルの割り当てにバッグワイズな制約を課している。
経験的リスク最小化フレームワークを用いたリスク一貫性手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T03:49:04Z) - Distributionally Robust Learning in Heterogeneous Contexts [29.60681287631439]
異なる文脈で得られたトレーニングデータから学習する問題を検討し、テストデータは分布シフトの影響を受けます。
我々は,超過リスクに着目した分散ロバストな手法を開発し,従来の超保守的ミニマックスアプローチよりもパフォーマンスとロバスト性のトレードオフをより適切なものにする。
論文 参考訳(メタデータ) (2021-05-18T14:00:34Z) - Adaptive Deep Learning for Entity Resolution by Risk Analysis [5.496296462160264]
本論文では, 特定の特性によって, 対象作業負荷に対する深層モデルをチューニングする, 新たなリスクベースアプローチを提案する。
理論分析の結果,リスクに基づく適応トレーニングは,誤った予測されたインスタンスのラベル状態をかなり良い確率で修正できることがわかった。
論文 参考訳(メタデータ) (2020-12-07T08:05:46Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Stable Adversarial Learning under Distributional Shifts [46.98655899839784]
経験的リスク最小化を伴う機械学習アルゴリズムは、分散シフトの下で脆弱である。
本研究では、異種データソースを活用してより実用的な不確実性セットを構築する安定適応学習(SAL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-08T08:42:34Z) - Principled learning method for Wasserstein distributionally robust
optimization with local perturbations [21.611525306059985]
ワッサーシュタイン分布論的ロバスト最適化(WDRO)は、実験データ分布近傍の局所的な最悪のリスクを最小限に抑えるモデルを学習しようとする。
本稿では,新しい近似定理に基づく最小化器を提案し,それに対応するリスク一貫性結果を提供する。
提案手法は,ノイズのあるデータセットのベースラインモデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2020-06-05T09:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。