論文の概要: Adversarial Classification: Necessary conditions and geometric flows
- arxiv url: http://arxiv.org/abs/2011.10797v2
- Date: Fri, 11 Mar 2022 18:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 23:16:02.336055
- Title: Adversarial Classification: Necessary conditions and geometric flows
- Title(参考訳): 逆分類:必要条件と幾何学的流れ
- Authors: Nicolas Garcia Trillos and Ryan Murray
- Abstract要約: 本研究では,ある逆数分類法を用いて,ある距離から最大$varepsilon$までデータ入力を不正に入力する逆数分類法について検討する。
我々は、分類境界の変化を$varepsilon$の変分として追跡するために使用できる幾何学的進化方程式を導出する。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a version of adversarial classification where an adversary is
empowered to corrupt data inputs up to some distance $\varepsilon$, using tools
from variational analysis. In particular, we describe necessary conditions
associated with the optimal classifier subject to such an adversary. Using the
necessary conditions, we derive a geometric evolution equation which can be
used to track the change in classification boundaries as $\varepsilon$ varies.
This evolution equation may be described as an uncoupled system of differential
equations in one dimension, or as a mean curvature type equation in higher
dimension. In one dimension, and under mild assumptions on the data
distribution, we rigorously prove that one can use the initial value problem
starting from $\varepsilon=0$, which is simply the Bayes classifier, in order
to solve for the global minimizer of the adversarial problem for small values
of $\varepsilon$. In higher dimensions we provide a similar result, albeit
conditional to the existence of regular solutions of the initial value problem.
In the process of proving our main results we obtain a result of independent
interest connecting the original adversarial problem with an optimal transport
problem under no assumptions on whether classes are balanced or not. Numerical
examples illustrating these ideas are also presented.
- Abstract(参考訳): 我々は,変動解析のツールを用いて,ある敵がデータ入力を一定距離まで逸脱させる権限を付与する,敵分類の1つのバージョンについて検討する。
特に,このような敵を対象とする最適分類器に付随する条件について述べる。
必要な条件を用いて、分類境界の変化を$\varepsilon$変化として追跡するために使用できる幾何学的進化方程式を導出する。
この進化方程式は、1次元の微分方程式の非結合系、あるいは高次元の平均曲率型方程式として記述することができる。
一次元において、そしてデータ分布に関する穏やかな仮定の下で、我々は、$\varepsilon$の小さな値に対する逆問題の大域的最小化のために、単にベイズ分類器である$\varepsilon=0$から始まる初期値問題を用いることができることを厳密に証明する。
より高次元では、初期値問題の正則解の存在を条件として、同様の結果が得られる。
主な結果を証明する過程で,クラスが均衡しているか否かを仮定せずに,元の対立問題と最適な輸送問題とを結び付ける独立した関心の結果を得る。
これらのアイデアを例示する数値例も提示される。
関連論文リスト
- On the Geometry of Regularization in Adversarial Training: High-Dimensional Asymptotics and Generalization Bounds [11.30047438005394]
本研究では, 正規化ノルム $lVert cdot rVert$ を二項分類のための高次元対角訓練の文脈で選択する方法について検討する。
我々は、摂動サイズと$lVert cdot rVert$の最適選択との関係を定量的に評価し、データ不足状態において、摂動が大きくなるにつれて、正則化のタイプが敵の訓練にとってますます重要になっていることを確認する。
論文 参考訳(メタデータ) (2024-10-21T14:53:12Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Trading off Consistency and Dimensionality of Convex Surrogates for the
Mode [6.096888891865663]
結果が$n$以上の多重クラス分類では、結果は少なくとも次元が$n-1$の実数に埋め込まれなければならない。
本稿では,サロゲート損失次元のトレードオフ,問題インスタンス数,単純度における一貫性領域の制限について検討する。
整合性を持つ各点の質量分布の周りには、単純体の実次元部分集合が存在するが、$n-1$次元に満たない場合、幻覚と呼ばれる現象が起こる分布が存在することを示す。
論文 参考訳(メタデータ) (2024-02-16T16:42:09Z) - Tempered Calculus for ML: Application to Hyperbolic Model Embedding [70.61101116794549]
MLで使用されるほとんどの数学的歪みは、本質的に自然界において積分的である。
本稿では,これらの歪みを改善するための基礎的理論とツールを公表し,機械学習の要件に対処する。
我々は、最近MLで注目を集めた問題、すなわち、ハイパーボリック埋め込みを「チープ」で正確なエンコーディングで適用する方法を示す。
論文 参考訳(メタデータ) (2024-02-06T17:21:06Z) - Comparison of Single- and Multi- Objective Optimization Quality for
Evolutionary Equation Discovery [77.34726150561087]
進化的微分方程式の発見は、より優先順位の低い方程式を得るための道具であることが証明された。
提案した比較手法は、バーガーズ方程式、波動方程式、コルテヴェーグ・ド・ブリーズ方程式といった古典的なモデル例で示される。
論文 参考訳(メタデータ) (2023-06-29T15:37:19Z) - Deep Neural Networks for Nonparametric Interaction Models with Diverging
Dimension [6.939768185086753]
成長次元シナリオ (d$ grows with $n$ but at a slow rate) と高次元 (dgtrsim n$) の両方において、$kth$オーダーの非パラメトリック相互作用モデルを分析する。
特定の標準仮定の下では、デバイアスドディープニューラルネットワークは、$(n, d)$の両面において、極小値の最適値を達成している。
論文 参考訳(メタデータ) (2023-02-12T04:19:39Z) - A Primal-Dual Approach to Solving Variational Inequalities with General Constraints [54.62996442406718]
Yang et al. (2023) は最近、一般的な変分不等式を解決するために一階勾配法を使う方法を示した。
この方法の収束性を証明し、演算子が$L$-Lipschitz と monotone である場合、この手法の最後の繰り返しのギャップ関数が$O(frac1sqrtK)$で減少することを示す。
論文 参考訳(メタデータ) (2022-10-27T17:59:09Z) - Localization, Convexity, and Star Aggregation [0.0]
オフセットラデマッハ複体は、正方形損失に対する鋭く線形依存的な上界を示すことが示されている。
統計的設定では、オフセット境界は一定の均一な凸性を満たす任意の損失に一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-05-19T00:47:59Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。