論文の概要: Stability Evaluation via Distributional Perturbation Analysis
- arxiv url: http://arxiv.org/abs/2405.03198v1
- Date: Mon, 6 May 2024 06:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 14:35:25.589409
- Title: Stability Evaluation via Distributional Perturbation Analysis
- Title(参考訳): 分布摂動解析による安定性評価
- Authors: Jose Blanchet, Peng Cui, Jiajin Li, Jiashuo Liu,
- Abstract要約: 分布摂動に基づく安定性評価基準を提案する。
我々の安定性評価基準は,エフェダデータの腐敗とエフェサブ人口シフトの両方に対処できる。
実証実験により,現実のアプリケーションにまたがる安定性評価基準の実用性を検証する。
- 参考スコア(独自算出の注目度): 28.379994938809133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of learning models often deteriorates when deployed in out-of-sample environments. To ensure reliable deployment, we propose a stability evaluation criterion based on distributional perturbations. Conceptually, our stability evaluation criterion is defined as the minimal perturbation required on our observed dataset to induce a prescribed deterioration in risk evaluation. In this paper, we utilize the optimal transport (OT) discrepancy with moment constraints on the \textit{(sample, density)} space to quantify this perturbation. Therefore, our stability evaluation criterion can address both \emph{data corruptions} and \emph{sub-population shifts} -- the two most common types of distribution shifts in real-world scenarios. To further realize practical benefits, we present a series of tractable convex formulations and computational methods tailored to different classes of loss functions. The key technical tool to achieve this is the strong duality theorem provided in this paper. Empirically, we validate the practical utility of our stability evaluation criterion across a host of real-world applications. These empirical studies showcase the criterion's ability not only to compare the stability of different learning models and features but also to provide valuable guidelines and strategies to further improve models.
- Abstract(参考訳): 学習モデルの性能は、サンプル外の環境にデプロイすると劣化することが多い。
信頼性の高い配置を実現するため,分布摂動に基づく安定性評価基準を提案する。
概念的には、我々の安定性評価基準は、リスク評価の所定の劣化を誘発するために観測データセットに必要となる最小の摂動として定義される。
本稿では、この摂動を定量化するために、最適輸送(OT)の差分をtextit{(sample, density)空間上のモーメント制約で利用する。
したがって、我々の安定性評価基準は、現実のシナリオにおいて最も一般的な2種類の分散シフトである \emph{data corruptions} と \emph{sub-population shifts} の両方に対処できる。
さらに実用的利益を達成するために,様々な損失関数のクラスに合わせて,一連のトラクタブル凸定式化と計算手法を提案する。
これを実現するための重要な技術ツールは、この論文で提供される強い双対性定理である。
実証実験により,現実のアプリケーションにまたがる安定性評価基準の実用性を検証する。
これらの実証的研究は、異なる学習モデルと特徴の安定性を比較するだけでなく、モデルをさらに改善するための貴重なガイドラインと戦略を提供するための基準の能力を示している。
関連論文リスト
- On the Selection Stability of Stability Selection and Its Applications [2.263635133348731]
本稿では,安定度選択フレームワークの全体的な安定性を評価するため,確立された安定度推定器の利用を拡大することを目的とする。
安定性推定器は、得られた結果の堅牢性を反映する参照として機能し、安定性を向上させるために最適な正規化値を特定するのに役立つ。
論文 参考訳(メタデータ) (2024-11-14T00:02:54Z) - Statistical Inference for Temporal Difference Learning with Linear Function Approximation [62.69448336714418]
時間差差(TD)学習は、おそらく政策評価に最も広く使用されるものであり、この目的の自然な枠組みとして機能する。
本稿では,Polyak-Ruppert平均化と線形関数近似によるTD学習の整合性について検討し,既存の結果よりも3つの重要な改善点を得た。
論文 参考訳(メタデータ) (2024-10-21T15:34:44Z) - Bayesian Nonparametrics Meets Data-Driven Distributionally Robust Optimization [29.24821214671497]
機械学習と統計モデルのトレーニングは、しばしばデータ駆動型リスク基準の最適化を伴う。
ベイズ的非パラメトリック(ディリクレ過程)理論と、スムーズなあいまいさ-逆選好の最近の決定論的モデルを組み合わせた、新しいロバストな基準を提案する。
実用的な実装として、よく知られたディリクレプロセスの表現に基づいて、評価基準の抽出可能な近似を提案し、研究する。
論文 参考訳(メタデータ) (2024-01-28T21:19:15Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Towards stable real-world equation discovery with assessing
differentiating quality influence [52.2980614912553]
一般的に用いられる有限差分法に代わる方法を提案する。
我々は,これらの手法を実問題と類似した問題に適用可能であること,および方程式発見アルゴリズムの収束性を確保する能力の観点から評価する。
論文 参考訳(メタデータ) (2023-11-09T23:32:06Z) - Minimax Optimal Estimation of Stability Under Distribution Shift [8.893526921869137]
分散シフト中のシステムの安定性を解析する。
安定性尺度は、より直感的な量、許容される性能劣化のレベルで定義される。
ミニマックス収束速度の特性は, 高い性能劣化に対する安定性の評価が統計的コストをもたらすことを示している。
論文 参考訳(メタデータ) (2022-12-13T02:40:30Z) - Continual evaluation for lifelong learning: Identifying the stability
gap [35.99653845083381]
我々は、新しいタスクの学習を始める際に、一般的な最先端の手法のセットを忘れることに苦しむことを示す。
興味深いが潜在的に問題となる現象を安定性ギャップと呼ぶ。
我々は,各項目評価を用いた連続評価のためのフレームワークを構築し,最悪の場合のパフォーマンスを定量化するための新しい指標セットを定義する。
論文 参考訳(メタデータ) (2022-05-26T15:56:08Z) - Versatile and Robust Transient Stability Assessment via Instance
Transfer Learning [6.760999627905228]
本稿では,電力系統力学の知識を取り入れたデータ駆動型アルゴリズムに新たなデータ収集手法を提案する。
不安定領域に関する重要な情報を提供する断層影響領域という新しい概念を導入する。
IEEE 39バスシステムのテスト結果は、このモデルがこれまで見つからなかった運用シナリオの安定性を正確に予測できることを検証します。
論文 参考訳(メタデータ) (2021-02-20T09:10:29Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z) - Stable Adversarial Learning under Distributional Shifts [46.98655899839784]
経験的リスク最小化を伴う機械学習アルゴリズムは、分散シフトの下で脆弱である。
本研究では、異種データソースを活用してより実用的な不確実性セットを構築する安定適応学習(SAL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-08T08:42:34Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。