論文の概要: Optimization Models and Interpretations for Three Types of Adversarial
Perturbations against Support Vector Machines
- arxiv url: http://arxiv.org/abs/2204.03154v1
- Date: Thu, 7 Apr 2022 01:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 16:02:13.868874
- Title: Optimization Models and Interpretations for Three Types of Adversarial
Perturbations against Support Vector Machines
- Title(参考訳): 支援ベクトルマシンに対する3種類の逆摂動の最適化モデルと解釈
- Authors: Wen Su, Qingna Li, Chunfeng Cui
- Abstract要約: 支援ベクトルマシンに対する3種類の逆摂動に対する最適化モデルと解釈について検討する。
線形バイナリ/マルチ分類支援ベクトルマシン(SVM)に対して、sAP、cuAP、uAPの明示的な解を導出する。
数値計算の結果,本手法は3種類の逆方向摂動を高速かつ効果的に計算できることが示唆された。
- 参考スコア(独自算出の注目度): 6.772489385401999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial perturbations have drawn great attentions in various deep neural
networks. Most of them are computed by iterations and cannot be interpreted
very well. In contrast, little attentions are paid to basic machine learning
models such as support vector machines. In this paper, we investigate the
optimization models and the interpretations for three types of adversarial
perturbations against support vector machines, including sample-adversarial
perturbations (sAP), class-universal adversarial perturbations (cuAP) as well
as universal adversarial perturbations (uAP). For linear binary/multi
classification support vector machines (SVMs), we derive the explicit solutions
for sAP, cuAP and uAP (binary case), and approximate solution for uAP of
multi-classification. We also obtain the upper bound of fooling rate for uAP.
Such results not only increase the interpretability of the three adversarial
perturbations, but also provide great convenience in computation since
iterative process can be avoided. Numerical results show that our method is
fast and effective in calculating three types of adversarial perturbations.
- Abstract(参考訳): 敵の摂動は、様々なディープニューラルネットワークにおいて大きな注目を集めている。
それらのほとんどは反復によって計算され、よく解釈できない。
対照的に、サポートベクターマシンのような基本的な機械学習モデルにはほとんど注意が払われていない。
本稿では, サンプル対逆摂動 (sAP) やクラス対逆摂動 (cuAP) , ユニバーサル対逆摂動 (uAP) など, 支援ベクトルマシンに対する3種類の逆摂動の最適化モデルと解釈について検討する。
線形バイナリ/マルチ分類支援ベクトルマシン(SVM)では、sAP、cuAP、uAP(バイナリの場合)の明示的な解と、uAPのマルチ分類の近似解を導出する。
また, uAP の不正化率の上限も獲得する。
このような結果は, 3つの逆摂動の解釈性を高めるだけでなく, 反復過程を回避できるため, 計算の利便性も向上する。
その結果,本手法は3種類の逆摂動を高速かつ効果的に計算できることがわかった。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - PointACL:Adversarial Contrastive Learning for Robust Point Clouds
Representation under Adversarial Attack [73.3371797787823]
逆比較学習(Adversarial contrastive learning, ACL)は、事前学習されたモデルの堅牢性を改善する効果的な方法と考えられている。
本稿では,自己指導型コントラスト学習フレームワークを逆向きに学習するために,ロバストな認識損失関数を提案する。
提案手法であるPointACLを,複数のデータセットを用いた3次元分類と3次元分割を含む下流タスクで検証する。
論文 参考訳(メタデータ) (2022-09-14T22:58:31Z) - Focused Adversarial Attacks [1.607104211283248]
機械学習の最近の進歩は、ニューラルモデルが最小限の摂動入力や敵対的な例に対して脆弱であることを示している。
我々は、モデルが学習した多様体の非常に限られた部分集合を用いて、逆例を計算することを提案する。
textitFocused Adversarial Attacks (FA)アルゴリズムは、勾配に基づく敵攻撃を行うために、少数の機密領域を識別する。
論文 参考訳(メタデータ) (2022-05-19T15:38:23Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Ensemble Methods for Robust Support Vector Machines using Integer
Programming [0.0]
我々は、トレーニングデータが不確実性にさらされていると仮定する二項分類問題について検討する。
この問題を解決するために、堅牢な機械学習の分野では、トレーニングデータの小さな摂動に対して堅牢なモデルを開発することが目的である。
論文 参考訳(メタデータ) (2022-03-03T10:03:54Z) - Benign Overfitting in Multiclass Classification: All Roads Lead to
Interpolation [39.02017410837255]
多クラス線形分類における良性オーバーフィッティングについて検討する。
分離可能なデータに対する以下のトレーニングアルゴリズムを検討する。
MNI分類器の精度に基づいた新しい境界を導出する。
論文 参考訳(メタデータ) (2021-06-21T05:34:36Z) - Robustifying Binary Classification to Adversarial Perturbation [45.347651499585055]
本稿では,対向摂動を伴う二分分類の問題について考察する。
データを操作する際の敵の力を考慮に入れたマックスマージン分類器に一般化を導入する。
損失関数に関するいくつかの軽微な仮定の下では、勾配降下がその方向のRM分類器に収束することを理論的に示す。
論文 参考訳(メタデータ) (2020-10-29T07:20:37Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - Dynamic Divide-and-Conquer Adversarial Training for Robust Semantic
Segmentation [79.42338812621874]
敵のトレーニングは、敵の摂動に対するディープニューラルネットワークの堅牢性を改善することを約束している。
本研究は, 敵とクリーンの両方のサンプルに対して良好に動作可能な, 汎用的な敵の訓練手順を定式化する。
本稿では,防衛効果を高めるための動的分割対対人訓練(DDC-AT)戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T05:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。