論文の概要: Impact of Attention on Adversarial Robustness of Image Classification
Models
- arxiv url: http://arxiv.org/abs/2109.00936v1
- Date: Thu, 2 Sep 2021 13:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 18:23:48.949263
- Title: Impact of Attention on Adversarial Robustness of Image Classification
Models
- Title(参考訳): 画像分類モデルの逆ロバスト性に及ぼす注意の影響
- Authors: Prachi Agrawal, Narinder Singh Punn, Sanjay Kumar Sonbhadra, Sonali
Agarwal
- Abstract要約: ディープラーニングモデルに対するアドリアック攻撃が注目されている。
近年の研究では、これらの攻撃からモデルを守るための敵の例や技法の存在について説明がされている。
この研究は、相手の強靭性に対する注意の影響の一般的な理解を目的としている。
- 参考スコア(独自算出の注目度): 0.9176056742068814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks against deep learning models have gained significant
attention and recent works have proposed explanations for the existence of
adversarial examples and techniques to defend the models against these attacks.
Attention in computer vision has been used to incorporate focused learning of
important features and has led to improved accuracy. Recently, models with
attention mechanisms have been proposed to enhance adversarial robustness.
Following this context, this work aims at a general understanding of the impact
of attention on adversarial robustness. This work presents a comparative study
of adversarial robustness of non-attention and attention based image
classification models trained on CIFAR-10, CIFAR-100 and Fashion MNIST datasets
under the popular white box and black box attacks. The experimental results
show that the robustness of attention based models may be dependent on the
datasets used i.e. the number of classes involved in the classification. In
contrast to the datasets with less number of classes, attention based models
are observed to show better robustness towards classification.
- Abstract(参考訳): ディープラーニングモデルに対する敵意攻撃は大きな注目を集めており、近年の研究では、これらの攻撃からモデルを守るための敵意的例とテクニックの存在に関する説明が提案されている。
コンピュータビジョンにおける注意は重要な特徴の集中学習を取り入れるために使われ、精度が向上した。
近年,対向ロバスト性を高めるために注意機構を持つモデルが提案されている。
この文脈に従って、この研究は、敵の強靭性に対する注意の影響の一般的な理解を目的としている。
本研究は、CIFAR-10, CIFAR-100, Fashion MNISTデータセットでトレーニングされた非注意および注意に基づく画像分類モデルの、一般的なホワイトボックスとブラックボックス攻撃下での対角的堅牢性の比較研究である。
実験の結果,注意に基づくモデルのロバスト性は,使用するデータセットに依存する可能性がある。
分類に関わるクラスの数です
クラス数が少ないデータセットとは対照的に、注意に基づくモデルは分類に対してより堅牢性を示す。
関連論文リスト
- Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Black-box Adversarial Transferability: An Empirical Study in Cybersecurity Perspective [0.0]
敵対的機械学習では、悪意のあるユーザは、トレーニングまたはテストフェーズ中に、相手の摂動入力をモデルに挿入することで、ディープラーニングモデルを騙そうとします。
サイバー攻撃検知システムにおけるブラックボックスの逆転現象を実証的に検証する。
その結果,攻撃者が対象モデルの内部情報にアクセスできなくても,どんなディープラーニングモデルでも敵攻撃に強い影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-15T06:56:28Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - Mitigating Bias: Enhancing Image Classification by Improving Model
Explanations [9.791305104409057]
ディープラーニングモデルは、画像の背景にあるシンプルで容易に識別できる特徴に大きく依存する傾向がある。
モデルに十分な注意を前景に割り当てるよう促すメカニズムを導入する。
本研究は,画像内の主概念の理解と表現を高める上で,前景の注意が重要であることを明らかにする。
論文 参考訳(メタデータ) (2023-07-04T04:46:44Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - A Closer Look at the Adversarial Robustness of Information Bottleneck
Models [87.89442166368983]
以前の研究では、情報ボトルネックで訓練されたモデルの堅牢性は、敵の訓練によって改善されることが示された。
様々なホワイトボックスの$l_infty$攻撃による評価は、情報ボトルネックだけでは強力な防御戦略ではないことを示唆している。
論文 参考訳(メタデータ) (2021-07-12T20:05:08Z) - AdvHaze: Adversarial Haze Attack [19.744435173861785]
現実世界の風景に共通する現象であるヘイズに基づく新たな敵対攻撃法を紹介します。
本手法は, 大気散乱モデルに基づく画像に, 高い現実性で, 潜在的に逆転するハゼを合成することができる。
提案手法は,高い成功率を達成し,ベースラインと異なる分類モデル間での転送性が向上することを示す。
論文 参考訳(メタデータ) (2021-04-28T09:52:25Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。