論文の概要: Measuring Adversarial Robustness using a Voronoi-Epsilon Adversary
- arxiv url: http://arxiv.org/abs/2005.02540v3
- Date: Fri, 14 May 2021 15:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:15:16.898323
- Title: Measuring Adversarial Robustness using a Voronoi-Epsilon Adversary
- Title(参考訳): Voronoi-Epsilon の対数ロバスト性の測定
- Authors: Hyeongji Kim, Pekka Parviainen, Ketil Malde
- Abstract要約: トレードオフは、一般的に使われている敵の精度の定義に固有のものだ、と我々は主張する。
本稿では,Voronoiセルと$epsilon$-ballsで制約されたVoronoi-epsilon逆数を提案する。
その結果、この逆数に基づく逆数精度は、$epsilon$が大きければ、トレーニングデータに対する精度と逆数精度とのトレードオフを回避することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous studies on robustness have argued that there is a tradeoff between
accuracy and adversarial accuracy. The tradeoff can be inevitable even when we
neglect generalization. We argue that the tradeoff is inherent to the commonly
used definition of adversarial accuracy, which uses an adversary that can
construct adversarial points constrained by $\epsilon$-balls around data
points. As $\epsilon$ gets large, the adversary may use real data points from
other classes as adversarial examples. We propose a Voronoi-epsilon adversary
which is constrained both by Voronoi cells and by $\epsilon$-balls. This
adversary balances between two notions of perturbation. As a result,
adversarial accuracy based on this adversary avoids a tradeoff between accuracy
and adversarial accuracy on training data even when $\epsilon$ is large.
Finally, we show that a nearest neighbor classifier is the maximally robust
classifier against the proposed adversary on the training data.
- Abstract(参考訳): 従来のロバスト性の研究は、精度と敵の精度の間にはトレードオフがあると主張している。
一般化を無視してもトレードオフは避けられない。
このトレードオフは、データポイントを囲む$\epsilon$-ballsで制約された逆数点を構築できる逆数を用いて、一般的に用いられる逆数精度の定義に固有のものである、と我々は主張する。
$\epsilon$が大きくなると、相手は、他のクラスの実際のデータポイントを敵の例として使うことができる。
我々は、voronoi細胞と$\epsilon$-ballsの両方によって制約されるvoronoi-epsilon逆境を提案する。
この対立は2つの摂動の概念のバランスをとる。
その結果、この逆数に基づく逆数精度は、$\epsilon$が大きければ、トレーニングデータに対する精度と逆数精度とのトレードオフを回避することができる。
最後に, 最近傍の分類器が, 提案した学習データに対する最大ロバストな分類器であることを示す。
関連論文リスト
- Nearly Optimal Algorithms for Contextual Dueling Bandits from Adversarial Feedback [58.66941279460248]
人からのフィードバックから学ぶことは、大言語モデル(LLM)のような生成モデルを調整する上で重要な役割を果たす
本稿では,本問題の領域内モデルについて考察する。-文脈的デュエルバンディットと敵対的フィードバックを併用し,真の嗜好ラベルを敵によって反転させることができる。
本稿では,不確実性重み付き最大推定に基づく頑健なコンテキストデュエルバンドイット(アルゴ)を提案する。
論文 参考訳(メタデータ) (2024-04-16T17:59:55Z) - On Achieving Optimal Adversarial Test Error [22.80363013317207]
まず、最適対向予測器の様々な基本特性を解明する。
本研究では,一般的なデータ分布と摂動集合に対して,早期停止と最適対向性のある浅層ネットワーク上での対向トレーニングにより,最適対向テスト誤差を達成できることを証明した。
論文 参考訳(メタデータ) (2023-06-13T05:25:51Z) - Lethal Dose Conjecture on Data Poisoning [122.83280749890078]
データ中毒は、悪意のある目的のために機械学習アルゴリズムのトレーニングセットを歪ませる敵を考える。
本研究は, 致死線量導出法(Lethal Dose Conjecture)とよばれるデータ中毒の基礎について, 1つの予想を立証するものである。
論文 参考訳(メタデータ) (2022-08-05T17:53:59Z) - The Interplay between Distribution Parameters and the
Accuracy-Robustness Tradeoff in Classification [0.0]
アドリラルトレーニングは、通常のモデルに比べて自然(未成熟)の例では正確でないモデルをもたらす傾向にある。
これは、アルゴリズムの欠点か、トレーニングデータ分散の基本的な性質によるものとみなすことができる。
本研究では,二進ガウス混合分類問題の下で後者のケースに焦点をあてる。
論文 参考訳(メタデータ) (2021-07-01T06:57:50Z) - On the (Un-)Avoidability of Adversarial Examples [4.822598110892847]
ディープラーニングモデルの逆例は、その信頼性に大きな懸念を引き起こしている。
小摂動下でのモデルラベルの変更が正当化されるかどうかを決定するためのフレームワークを提供する。
適応的なデータ拡張は、決定論的ラベルの下で1-アレスト近傍の分類の整合性を維持していることを示す。
論文 参考訳(メタデータ) (2021-06-24T21:35:25Z) - Adversary Instantiation: Lower Bounds for Differentially Private Machine
Learning [43.6041475698327]
異なるプライベート(DP)機械学習により、データ漏洩を制限しながら、プライベートデータに関するモデルをトレーニングできます。
本稿では,DPトレーニングアルゴリズムのプライバシ分析における敵対的能力の重要性について検討する。
論文 参考訳(メタデータ) (2021-01-11T18:47:11Z) - Robustness, Privacy, and Generalization of Adversarial Training [84.38148845727446]
本稿では, 対人訓練におけるプライバシ・ロバスト性トレードオフと一般化・ロバスト性トレードオフの確立と定量化を行う。
我々は,差分プライバシの大きさが強固な強度と正の相関を持つ場合,敵対的トレーニングは$(varepsilon,delta)$-differentially privateであることが示される。
我々の一般化境界は、ディープラーニングにおいて大きなパラメータサイズに明示的に依存していない。
論文 参考訳(メタデータ) (2020-12-25T13:35:02Z) - Robustness May Be at Odds with Fairness: An Empirical Study on
Class-wise Accuracy [85.20742045853738]
CNNは敵の攻撃に弱いことが広く知られている。
本稿では,対人訓練モデルのクラスワイド精度とロバスト性に関する実証的研究を提案する。
トレーニングデータセットが各クラスに同じ数のサンプルを持つ場合でも,精度と堅牢性にはクラス間差があることが判明した。
論文 参考訳(メタデータ) (2020-10-26T06:32:32Z) - Geometry-aware Instance-reweighted Adversarial Training [78.70024866515756]
敵対的機械学習では、堅牢性と正確性がお互いを傷つけるという共通の信念があった。
本稿では,自然データ点の攻撃がいかに難しいかに基づいて,幾何対応のインスタンス再重み付き対向訓練を提案する。
実験の結果,本提案は標準的な対人訓練の堅牢性を高めることが示唆された。
論文 参考訳(メタデータ) (2020-10-05T01:33:11Z) - Attacks Which Do Not Kill Training Make Adversarial Learning Stronger [85.96849265039619]
ミニマックス定式化に基づく敵対的訓練は、訓練されたモデルの敵対的堅牢性を得るのに必要である。
敵のトレーニングは、現在のモデルを更新するために、確実な敵のデータを取り入れることである、と我々は主張する。
論文 参考訳(メタデータ) (2020-02-26T01:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。