論文の概要: Optimizing the Performative Risk under Weak Convexity Assumptions
- arxiv url: http://arxiv.org/abs/2209.00771v1
- Date: Fri, 2 Sep 2022 01:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:10:00.701914
- Title: Optimizing the Performative Risk under Weak Convexity Assumptions
- Title(参考訳): 弱凸量推定によるパフォーマンスリスクの最適化
- Authors: Yulai Zhao
- Abstract要約: 性能予測において、予測モデルは将来のデータを生成する分布に影響を与える。
これまでの研究では、損失に関する一般的な条件とモデルパラメータから分布へのマッピングが特定されており、凸性はパフォーマンスリスクを意味する。
本稿では,反復最適化法における性能最小化リスク問題の回避性を犠牲にすることなく,これらの仮定を緩和する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In performative prediction, a predictive model impacts the distribution that
generates future data, a phenomenon that is being ignored in classical
supervised learning. In this closed-loop setting, the natural measure of
performance, denoted the performative risk, captures the expected loss incurred
by a predictive model after deployment. The core difficulty of minimizing the
performative risk is that the data distribution itself depends on the model
parameters. This dependence is governed by the environment and not under the
control of the learner. As a consequence, even the choice of a convex loss
function can result in a highly non-convex performative risk minimization
problem. Prior work has identified a pair of general conditions on the loss and
the mapping from model parameters to distributions that implies convexity of
the performative risk. In this paper, we relax these assumptions and focus on
obtaining weaker notions of convexity, without sacrificing the amenability of
the performative risk minimization problem for iterative optimization methods.
- Abstract(参考訳): 予測モデルは、古典的な教師付き学習において無視される現象である将来のデータを生成する分布に影響を与える。
このクローズドループ設定では、パフォーマンスの自然な尺度(パフォーマンスリスク)は、デプロイ後の予測モデルによって生じる期待損失をキャプチャする。
パフォーマンスリスクを最小化することの難しさは、データ分散自体がモデルパラメータに依存することだ。
この依存は環境によって制御され、学習者の管理下ではない。
その結果、凸損失関数の選択でさえも、非常に非凸効率なリスク最小化問題を引き起こす可能性がある。
これまでの研究では、損失に関する一般的な条件と、モデルパラメータから分布へのマッピングは、パフォーマンスリスクの凸性を意味する。
本稿では,これらの仮定を緩和し,反復最適化法における性能的リスク最小化問題の回避性を犠牲にすることなく,凸性の弱い概念の獲得に注力する。
関連論文リスト
- Learning from a Biased Sample [5.162622771922123]
本稿では,テスト分布のファミリーで発生する最悪のリスクを最小限に抑える決定ルールの学習方法を提案する。
我々は,盗難手法を用いてロバストなモデルを学習するための統計的保証を与え,損失関数がターゲットを捕捉する深層学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-05T04:19:16Z) - Improving Generalization via Uncertainty Driven Perturbations [107.45752065285821]
トレーニングデータポイントの不確実性による摂動について考察する。
損失駆動摂動とは異なり、不確実性誘導摂動は決定境界を越えてはならない。
線形モデルにおいて,UDPがロバスト性マージン決定を達成することが保証されていることを示す。
論文 参考訳(メタデータ) (2022-02-11T16:22:08Z) - Causally Invariant Predictor with Shift-Robustness [72.1844679700197]
本稿では,領域間の分散シフトに頑健な因果予測器を提案する。
経験的学習のために,データ再生に基づく直感的で柔軟な推定法を提案する。
合成データと実データの両方の実験結果から,予測器の有効性が示された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z) - Which Echo Chamber? Regions of Attraction in Learning with
Decision-Dependent Distributions [9.772106698388138]
我々は、繰り返しリスク最小化を、実行リスク最小化の勾配流の軌跡として分析する。
実世界の状況に動機づけられたパフォーマンスリスクの局所的最小化要因が複数存在する場合を考える。
論文 参考訳(メタデータ) (2021-06-30T18:38:08Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Outside the Echo Chamber: Optimizing the Performative Risk [21.62040119228266]
本研究では,損失関数の性質の自然集合と,その実行リスクが凸となるモデル誘起分布シフトを同定する。
導関数のない凸最適化の一般的な方法よりも優れたサンプル効率で性能リスクを最適化するために,構造的仮定を活用するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-02-17T04:36:39Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Risks of Invariant Risk Minimization [52.7137956951533]
不変リスク最小化(Invariant Risk Minimization)は、データの深い不変性を学ぶという考え方に基づく目標である。
我々は、IRMの目的に基づく分類の最初の分析と、最近提案されたこれらの代替案について、かなり自然で一般的なモデルで分析する。
IRMは、テストデータがトレーニング分布と十分に類似していない限り、破滅的に失敗する可能性がある。
論文 参考訳(メタデータ) (2020-10-12T14:54:32Z) - A Stochastic Subgradient Method for Distributionally Robust Non-Convex
Learning [2.007262412327553]
堅牢性は、基礎となるデータ分布の不確実性に関するものです。
本手法は摂動条件を満たすことに収束することを示す。
また、実際のデータセット上でのアルゴリズムの性能についても解説する。
論文 参考訳(メタデータ) (2020-06-08T18:52:40Z) - Principled learning method for Wasserstein distributionally robust
optimization with local perturbations [21.611525306059985]
ワッサーシュタイン分布論的ロバスト最適化(WDRO)は、実験データ分布近傍の局所的な最悪のリスクを最小限に抑えるモデルを学習しようとする。
本稿では,新しい近似定理に基づく最小化器を提案し,それに対応するリスク一貫性結果を提供する。
提案手法は,ノイズのあるデータセットのベースラインモデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2020-06-05T09:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。