論文の概要: Superclass Adversarial Attack
- arxiv url: http://arxiv.org/abs/2205.14629v1
- Date: Sun, 29 May 2022 11:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 17:07:38.892946
- Title: Superclass Adversarial Attack
- Title(参考訳): スーパークラスアタック
- Authors: Soichiro Kumano, Hiroshi Kera, Toshihiko Yamasaki
- Abstract要約: 本研究は, 高級クラスだけでなく, 高級クラスの誤分類を引き起こすスーパークラス対逆攻撃について検討する。
この結果は、トップkやマルチラベルの分類攻撃など、複数のクラスを含む他の問題設定にも適用できる。
- 参考スコア(独自算出の注目度): 35.11749832501176
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial attacks have only focused on changing the predictions of the
classifier, but their danger greatly depends on how the class is mistaken. For
example, when an automatic driving system mistakes a Persian cat for a Siamese
cat, it is hardly a problem. However, if it mistakes a cat for a 120km/h
minimum speed sign, serious problems can arise. As a stepping stone to more
threatening adversarial attacks, we consider the superclass adversarial attack,
which causes misclassification of not only fine classes, but also superclasses.
We conducted the first comprehensive analysis of superclass adversarial attacks
(an existing and 19 new methods) in terms of accuracy, speed, and stability,
and identified several strategies to achieve better performance. Although this
study is aimed at superclass misclassification, the findings can be applied to
other problem settings involving multiple classes, such as top-k and
multi-label classification attacks.
- Abstract(参考訳): 敵の攻撃は分類器の予測を変更することだけに焦点を当ててきたが、その危険性はクラスをどう間違えるかに大きく依存している。
例えば、自動走行システムがペルシアの猫をシャム猫と間違えた場合、それはほとんど問題ではない。
しかし、120km/hの速さで猫を間違えると深刻な問題が発生する。
より脅威となる敵の攻撃の足場として、我々は、優れたクラスだけでなく、スーパークラスの誤分類を引き起こすスーパークラスの敵の攻撃を考える。
我々は, 精度, 速度, 安定性の観点から, 超クラス敵攻撃(既存および19の新しい手法)の包括的解析を行い, 性能向上のためのいくつかの戦略を明らかにした。
本研究はスーパークラス誤分類を対象としているが,top-kやmulti-label分類攻撃など,複数のクラスを含む他の問題にも適用できる。
関連論文リスト
- Revisiting Character-level Adversarial Attacks for Language Models [53.446619686108754]
本稿では、高い攻撃成功率(ASR)を達成することができる効率的なクエリベースの敵攻撃であるCharmerを紹介する。
提案手法は,小型 (BERT) モデルと大型 (Llama 2) モデルの両方を対象としている。
論文 参考訳(メタデータ) (2024-05-07T14:23:22Z) - Hierarchical Classification for Intrusion Detection System: Effective Design and Empirical Analysis [3.560574387648533]
誤報を最小化しながら、異なる種類の攻撃を正確に検出できる侵入検知システム(IDS)を配備することが重要である。
機械学習のアプローチはIDSで広く使われており、通常トラフィックと異なるタイプの攻撃を区別するために、主にフラットなマルチクラス分類を使用している。
ネットワーク攻撃の分類には3レベルの階層的分類モデルを用いており、第1のレベルは良性または攻撃を分類し、第2のレベルは粗度の高い攻撃タイプを分類し、第3のレベルは粒度の高い攻撃タイプを分類する。
論文 参考訳(メタデータ) (2024-03-17T17:16:55Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Semi-Targeted Model Poisoning Attack on Federated Learning via Backward
Error Analysis [15.172954465350667]
フェデレートラーニング(FL)に対するモデル中毒は、エッジモデルを妥協することでシステム全体に侵入する。
本稿では,特徴空間に最適化された標的クラスを見出すことにより,アタック・ディスタンス・アウェア・アタック(ADA)の攻撃性を高めることを提案する。
ADAは攻撃頻度0.01の最も困難な場合において、攻撃性能を1.8倍に向上させることに成功した。
論文 参考訳(メタデータ) (2022-03-22T11:40:07Z) - Learning to Detect Adversarial Examples Based on Class Scores [0.8411385346896413]
我々は、すでに訓練済みの分類モデルのクラススコアに基づいて、敵の攻撃検出についてより詳しく検討する。
本稿では,SVM(Support Vector Machine)をクラススコアで学習し,逆例を検出することを提案する。
提案手法は,実装が容易でありながら,既存の手法と比較して検出率の向上を図っている。
論文 参考訳(メタデータ) (2021-07-09T13:29:54Z) - Unified Detection of Digital and Physical Face Attacks [61.6674266994173]
顔攻撃に対する最先端の防御メカニズムは、敵対的、デジタル操作、または物理的な偽装の3つの攻撃カテゴリのうちの1つでほぼ完璧な精度を達成します。
この3つのカテゴリに属する25のコヒーレントな攻撃タイプを自動的にクラスタリングできる統合攻撃検出フレームワーク(UniFAD)を提案する。
論文 参考訳(メタデータ) (2021-04-05T21:08:28Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Robustness May Be at Odds with Fairness: An Empirical Study on
Class-wise Accuracy [85.20742045853738]
CNNは敵の攻撃に弱いことが広く知られている。
本稿では,対人訓練モデルのクラスワイド精度とロバスト性に関する実証的研究を提案する。
トレーニングデータセットが各クラスに同じ数のサンプルを持つ場合でも,精度と堅牢性にはクラス間差があることが判明した。
論文 参考訳(メタデータ) (2020-10-26T06:32:32Z) - Tricking Adversarial Attacks To Fail [0.05076419064097732]
私たちのホワイトボックスの防御トリックは、指定されたターゲットクラスをターゲットにした攻撃になるための未然の攻撃です。
私たちのターゲットトレーニングディフェンスは、未目標の勾配ベースの敵攻撃のコアでの最小化をトリックします。
論文 参考訳(メタデータ) (2020-06-08T12:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。