論文の概要: A Survey on Transferability of Adversarial Examples across Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2310.17626v2
- Date: Thu, 2 May 2024 00:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 22:10:30.449670
- Title: A Survey on Transferability of Adversarial Examples across Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける逆例の転送可能性に関する調査
- Authors: Jindong Gu, Xiaojun Jia, Pau de Jorge, Wenqain Yu, Xinwei Liu, Avery Ma, Yuan Xun, Anjun Hu, Ashkan Khakzar, Zhijiang Li, Xiaochun Cao, Philip Torr,
- Abstract要約: 逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
- 参考スコア(独自算出の注目度): 53.04734042366312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of Deep Neural Networks (DNNs) has revolutionized various domains by enabling the resolution of complex tasks spanning image recognition, natural language processing, and scientific problem-solving. However, this progress has also brought to light a concerning vulnerability: adversarial examples. These crafted inputs, imperceptible to humans, can manipulate machine learning models into making erroneous predictions, raising concerns for safety-critical applications. An intriguing property of this phenomenon is the transferability of adversarial examples, where perturbations crafted for one model can deceive another, often with a different architecture. This intriguing property enables black-box attacks which circumvents the need for detailed knowledge of the target model. This survey explores the landscape of the adversarial transferability of adversarial examples. We categorize existing methodologies to enhance adversarial transferability and discuss the fundamental principles guiding each approach. While the predominant body of research primarily concentrates on image classification, we also extend our discussion to encompass other vision tasks and beyond. Challenges and opportunities are discussed, highlighting the importance of fortifying DNNs against adversarial vulnerabilities in an evolving landscape.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の出現は、画像認識、自然言語処理、科学的問題解決にまたがる複雑なタスクの解決を可能にすることで、さまざまな領域に革命をもたらした。
しかし、この進歩は、潜在的な脆弱性、すなわち敵の例にも光を当てている。
これらの人工的な入力は、人間には受け入れられず、機械学習モデルを操作して誤った予測をし、安全クリティカルなアプリケーションに対する懸念を高めることができる。
この現象の興味深い性質は、あるモデルのために作られた摂動が、しばしば異なるアーキテクチャで他のモデルを騙すことができる敵の例の転送可能性である。
この興味深い性質は、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃を可能にする。
本研究は, 対角移動可能性の展望を考察した。
本稿では,既存の手法を分類して,敵の移動可能性を高めるとともに,それぞれのアプローチを導く基本原則について議論する。
主な研究機関は画像分類に重点を置いているが、他のビジョンタスクを網羅する議論も拡張している。
課題と機会が議論され、進化する風景における敵の脆弱性に対するDNNの強化の重要性を強調している。
関連論文リスト
- Investigating and unmasking feature-level vulnerabilities of CNNs to adversarial perturbations [3.4530027457862]
本研究では,畳み込みニューラルネットワーク(CNN)に対する対向摂動の影響について検討する。
本稿では,CNNの脆弱性を逆方向の摂動に対して調査するために,逆方向干渉フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-31T08:14:44Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Adversarial Examples on Object Recognition: A Comprehensive Survey [1.976652238476722]
深層ニューラルネットワークは、機械学習研究の最前線にある。
敵の例は、ネットワークの分散ドリフトに対する感度をテストするために意図的に設計されています。
ニューラルネットワークの安全性,安全性,堅牢性に対する敵の例の影響について論じる。
論文 参考訳(メタデータ) (2020-08-07T08:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。