論文の概要: Bluff: Interactively Deciphering Adversarial Attacks on Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2009.02608v2
- Date: Tue, 8 Sep 2020 02:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 21:09:19.706965
- Title: Bluff: Interactively Deciphering Adversarial Attacks on Deep Neural
Networks
- Title(参考訳): bluff: ディープニューラルネットワークの敵攻撃をインタラクティブに解読する
- Authors: Nilaksh Das, Haekyu Park, Zijie J. Wang, Fred Hohman, Robert Firstman,
Emily Rogers, Duen Horng Chau
- Abstract要約: Bluffは、視覚ベースのニューラルネットワークに対する敵攻撃を可視化、特徴づけ、解読するインタラクティブシステムである。
敵攻撃がモデルに害を与えるメカニズムを明らかにする。
- 参考スコア(独自算出の注目度): 21.074988013822566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are now commonly used in many domains. However,
they are vulnerable to adversarial attacks: carefully crafted perturbations on
data inputs that can fool a model into making incorrect predictions. Despite
significant research on developing DNN attack and defense techniques, people
still lack an understanding of how such attacks penetrate a model's internals.
We present Bluff, an interactive system for visualizing, characterizing, and
deciphering adversarial attacks on vision-based neural networks. Bluff allows
people to flexibly visualize and compare the activation pathways for benign and
attacked images, revealing mechanisms that adversarial attacks employ to
inflict harm on a model. Bluff is open-sourced and runs in modern web browsers.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は現在、多くのドメインで一般的に使用されている。
しかし、それらは敵対的な攻撃に弱い: モデルを騙して誤った予測をする可能性のあるデータ入力の摂動を慎重に構築する。
DNN攻撃と防衛技術の開発に関する重大な研究にもかかわらず、そのような攻撃がモデルの内部をいかに浸透させるかは理解されていない。
視覚に基づくニューラルネットワークに対する敵攻撃を可視化し、特徴付け、解読するインタラクティブシステムであるBluffを提案する。
Bluffは、良心と攻撃された画像の活性化経路を柔軟に視覚化し、比較し、敵の攻撃がモデルに害を与えるメカニズムを明らかにする。
Bluffはオープンソースで、モダンなWebブラウザで動作する。
関連論文リスト
- On The Relationship Between Universal Adversarial Attacks And Sparse
Representations [38.43938212884298]
敵攻撃とスパース表現の関連性を示す。
ニューラルネットワークに対する一般的な攻撃は、入力画像のスパース表現に対する攻撃として表現することができる。
論文 参考訳(メタデータ) (2023-11-14T16:00:29Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Exploring the role of Input and Output Layers of a Deep Neural Network
in Adversarial Defense [0.0]
通常の人間を騙すのではなく、モデルを完全に誤解させる可能性のある、ある種の入力が存在することが示されている。
逆入力は、そのようなモデルが現実世界のアプリケーションで使用される場合、高いセキュリティ上の脅威となる。
本研究は, 完全に接続された3種類の高密度ネットワークの非段階的攻撃に対する耐性を解析した。
論文 参考訳(メタデータ) (2020-06-02T06:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。