論文の概要: Adversarial Classification via Distributional Robustness with
Wasserstein Ambiguity
- arxiv url: http://arxiv.org/abs/2005.13815v4
- Date: Thu, 4 Nov 2021 03:45:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:54:09.348020
- Title: Adversarial Classification via Distributional Robustness with
Wasserstein Ambiguity
- Title(参考訳): 分布的ロバスト性とwassersteinambiguityによる逆分類
- Authors: Nam Ho-Nguyen, Stephen J. Wright
- Abstract要約: ワッサーシュタインの曖昧さの下では、モデルは誤分類のリスクを最小限にすることを目的としている。
この分類の非整合性にもかかわらず、標準降下法はこの問題に対して収束しているように見える。
- 参考スコア(独自算出の注目度): 12.576828231302134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a model for adversarial classification based on distributionally
robust chance constraints. We show that under Wasserstein ambiguity, the model
aims to minimize the conditional value-at-risk of the distance to
misclassification, and we explore links to adversarial classification models
proposed earlier and to maximum-margin classifiers. We also provide a
reformulation of the distributionally robust model for linear classification,
and show it is equivalent to minimizing a regularized ramp loss objective.
Numerical experiments show that, despite the nonconvexity of this formulation,
standard descent methods appear to converge to the global minimizer for this
problem. Inspired by this observation, we show that, for a certain class of
distributions, the only stationary point of the regularized ramp loss
minimization problem is the global minimizer.
- Abstract(参考訳): 本研究では,確率分布制約に基づく逆分類モデルについて検討する。
このモデルは,wassersteinの曖昧さの下では,誤分類への距離の条件付き値の最小化を目標としており,先述した逆分類モデルと最大マージン分類器との関係を考察する。
また,線形分類のための分布ロバストモデルの再構成を行い,正規化ランプ損失目標の最小化に等価であることを示す。
数値実験により、この定式化の非凸性にもかかわらず、標準降下法はこの問題の国際最小化法に収束しているように見える。
この観察に触発されて、ある種類の分布に対して、正規化ランプ損失最小化問題の唯一の定常点が大域的最小化であることを示した。
関連論文リスト
- Implicit regularization via soft ascent-descent [7.335712499936906]
最小限のトライアル・アンド・エラーで、より優れたオフサンプル一般化を実現する方法を示す。
我々は,軟弱化機構であるSoftADを提案し,下降重みが境界線を指差し,外れ値の影響を制限し,昇華・昇華効果を維持する。
私たちの経験的テストは、平面上の単純なバイナリ分類から、数百万のパラメータを持つニューラルネットワークを用いた画像分類まで様々です。
論文 参考訳(メタデータ) (2023-10-16T02:02:56Z) - On the Variance, Admissibility, and Stability of Empirical Risk
Minimization [80.26309576810844]
2乗損失を持つ経験的リスク最小化(ERM)は、極小最適誤差率に達する可能性がある。
軽微な仮定では、ERMの準最適性はばらつきよりも大きなバイアスによるものでなければならない。
また、我々の推定は、非ドンスカー類に対するCaponnetto と Rakhlin (2006) の主な結果を補完する ERM の安定性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Training Normalizing Flows with the Precision-Recall Divergence [73.92251251511199]
特定精度リコールトレードオフを達成することは、em PR-divergencesと呼ぶ家族からの-divergencesの最小化に相当することを示す。
本稿では, 正規化フローをトレーニングして, 偏差を最小化し, 特に, 所与の高精度リコールトレードオフを実現する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2023-02-01T17:46:47Z) - Towards the Semantic Weak Generalization Problem in Generative Zero-Shot
Learning: Ante-hoc and Post-hoc [89.68803484284408]
生成ゼロショット学習(ZSL)の性能上限を制限した未探索要素を簡易かつ効果的に削減する戦略を提案する。
まず、意味的一般化を正式に定義し、その後、意味的弱一般化問題を減らそうとするアプローチを検討する。
アンテホック相では、ジェネレータのセマンティック入力を増強し、ジェネレータの適合ターゲットを緩和する。
論文 参考訳(メタデータ) (2022-04-24T13:54:42Z) - Origins of Low-dimensional Adversarial Perturbations [17.17170592140042]
分類における低次元対向摂動現象について検討した。
目標は、分類器を騙して、指定されたクラスからの入力のゼロではない割合でその決定を反転させることである。
任意の部分空間のばかばかし率の低いバウンドを計算する。
論文 参考訳(メタデータ) (2022-03-25T17:02:49Z) - Scaling Ensemble Distribution Distillation to Many Classes with Proxy
Targets [12.461503242570643]
emphEnsemble Distribution Distillationは、単一のモデルが、アンサンブルの予測性能と不確実性の両方を効率的にキャプチャできるアプローチである。
分類では、最大確率基準を通じてアンサンブルメンバーの出力分布の上のディリクレ分布を訓練することで達成される。
理論的には、この基準はクラス数が非常に高い大規模タスクに適用される場合の収束性に乏しい。
論文 参考訳(メタデータ) (2021-05-14T17:50:14Z) - Achieving Efficiency in Black Box Simulation of Distribution Tails with
Self-structuring Importance Samplers [1.6114012813668934]
本稿では,線形プログラムや整数線形プログラム,ピースワイド線形・二次目的,ディープニューラルネットワークで指定された特徴マップなど,多種多様なツールでモデル化されたパフォーマンス指標の分布を推定する,新しいImportance Smpling(IS)方式を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:37:22Z) - Robust Unsupervised Learning via L-Statistic Minimization [38.49191945141759]
教師なし学習に焦点をあて、この問題に対する一般的なアプローチを提示する。
重要な仮定は、摂動分布は、許容モデルの特定のクラスに対するより大きな損失によって特徴付けられることである。
教師なし学習におけるいくつかのポピュラーモデルに対する提案基準に関して,一様収束境界を証明した。
論文 参考訳(メタデータ) (2020-12-14T10:36:06Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。