論文の概要: Superclass Adversarial Attack
- arxiv url: http://arxiv.org/abs/2205.14629v1
- Date: Sun, 29 May 2022 11:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 17:07:38.892946
- Title: Superclass Adversarial Attack
- Title(参考訳): スーパークラスアタック
- Authors: Soichiro Kumano, Hiroshi Kera, Toshihiko Yamasaki
- Abstract要約: 本研究は, 高級クラスだけでなく, 高級クラスの誤分類を引き起こすスーパークラス対逆攻撃について検討する。
この結果は、トップkやマルチラベルの分類攻撃など、複数のクラスを含む他の問題設定にも適用できる。
- 参考スコア(独自算出の注目度): 35.11749832501176
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial attacks have only focused on changing the predictions of the
classifier, but their danger greatly depends on how the class is mistaken. For
example, when an automatic driving system mistakes a Persian cat for a Siamese
cat, it is hardly a problem. However, if it mistakes a cat for a 120km/h
minimum speed sign, serious problems can arise. As a stepping stone to more
threatening adversarial attacks, we consider the superclass adversarial attack,
which causes misclassification of not only fine classes, but also superclasses.
We conducted the first comprehensive analysis of superclass adversarial attacks
(an existing and 19 new methods) in terms of accuracy, speed, and stability,
and identified several strategies to achieve better performance. Although this
study is aimed at superclass misclassification, the findings can be applied to
other problem settings involving multiple classes, such as top-k and
multi-label classification attacks.
- Abstract(参考訳): 敵の攻撃は分類器の予測を変更することだけに焦点を当ててきたが、その危険性はクラスをどう間違えるかに大きく依存している。
例えば、自動走行システムがペルシアの猫をシャム猫と間違えた場合、それはほとんど問題ではない。
しかし、120km/hの速さで猫を間違えると深刻な問題が発生する。
より脅威となる敵の攻撃の足場として、我々は、優れたクラスだけでなく、スーパークラスの誤分類を引き起こすスーパークラスの敵の攻撃を考える。
我々は, 精度, 速度, 安定性の観点から, 超クラス敵攻撃(既存および19の新しい手法)の包括的解析を行い, 性能向上のためのいくつかの戦略を明らかにした。
本研究はスーパークラス誤分類を対象としているが,top-kやmulti-label分類攻撃など,複数のクラスを含む他の問題にも適用できる。
関連論文リスト
- Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Semi-Targeted Model Poisoning Attack on Federated Learning via Backward
Error Analysis [15.172954465350667]
フェデレートラーニング(FL)に対するモデル中毒は、エッジモデルを妥協することでシステム全体に侵入する。
本稿では,特徴空間に最適化された標的クラスを見出すことにより,アタック・ディスタンス・アウェア・アタック(ADA)の攻撃性を高めることを提案する。
ADAは攻撃頻度0.01の最も困難な場合において、攻撃性能を1.8倍に向上させることに成功した。
論文 参考訳(メタデータ) (2022-03-22T11:40:07Z) - Learning to Detect Adversarial Examples Based on Class Scores [0.8411385346896413]
我々は、すでに訓練済みの分類モデルのクラススコアに基づいて、敵の攻撃検出についてより詳しく検討する。
本稿では,SVM(Support Vector Machine)をクラススコアで学習し,逆例を検出することを提案する。
提案手法は,実装が容易でありながら,既存の手法と比較して検出率の向上を図っている。
論文 参考訳(メタデータ) (2021-07-09T13:29:54Z) - Unified Detection of Digital and Physical Face Attacks [61.6674266994173]
顔攻撃に対する最先端の防御メカニズムは、敵対的、デジタル操作、または物理的な偽装の3つの攻撃カテゴリのうちの1つでほぼ完璧な精度を達成します。
この3つのカテゴリに属する25のコヒーレントな攻撃タイプを自動的にクラスタリングできる統合攻撃検出フレームワーク(UniFAD)を提案する。
論文 参考訳(メタデータ) (2021-04-05T21:08:28Z) - Black-box Adversarial Attacks in Autonomous Vehicle Technology [4.215251065887861]
ブラックボックスの逆転攻撃は、自動運転車が他の車両や歩行者に衝突する重要なシーン要素の重大な誤分類を引き起こします。
転送ベース攻撃法におけるWhite-box Sourceの使用を克服するために,Modified Simple Black-box attack (M-SimBA) と呼ばれる新しいクエリベースの攻撃手法を提案する。
提案モデルは, 伝達型投影勾配降下(t-pgd), simbaといった既存モデルよりも収束時間, 混乱したクラス確率分布の平坦化, 真のクラスに対する信頼度の低い逆サンプルの生成に優れることを示した。
論文 参考訳(メタデータ) (2021-01-15T13:18:18Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Robustness May Be at Odds with Fairness: An Empirical Study on
Class-wise Accuracy [85.20742045853738]
CNNは敵の攻撃に弱いことが広く知られている。
本稿では,対人訓練モデルのクラスワイド精度とロバスト性に関する実証的研究を提案する。
トレーニングデータセットが各クラスに同じ数のサンプルを持つ場合でも,精度と堅牢性にはクラス間差があることが判明した。
論文 参考訳(メタデータ) (2020-10-26T06:32:32Z) - Tricking Adversarial Attacks To Fail [0.05076419064097732]
私たちのホワイトボックスの防御トリックは、指定されたターゲットクラスをターゲットにした攻撃になるための未然の攻撃です。
私たちのターゲットトレーニングディフェンスは、未目標の勾配ベースの敵攻撃のコアでの最小化をトリックします。
論文 参考訳(メタデータ) (2020-06-08T12:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。