論文の概要: Understanding Deep Learning defenses Against Adversarial Examples
Through Visualizations for Dynamic Risk Assessment
- arxiv url: http://arxiv.org/abs/2402.07496v1
- Date: Mon, 12 Feb 2024 09:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 14:54:37.388202
- Title: Understanding Deep Learning defenses Against Adversarial Examples
Through Visualizations for Dynamic Risk Assessment
- Title(参考訳): 動的リスク評価のための可視化による敵対的事例に対する深層学習防御の理解
- Authors: Xabier Echeberria-Barrio, Amaia Gil-Lerchundi, Jon Egana-Zubia, Raul
Orduna-Urrutia
- Abstract要約: 対人訓練,次元減少,予測類似性を対人攻撃に対する防御として選択した。
各防御において、元のモデルの挙動は、可視化されたグラフによって対象モデルの振る舞いを表現し、防御されたモデルの挙動と比較された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Deep Neural Network models have been developed in different
fields, where they have brought many advances. However, they have also started
to be used in tasks where risk is critical. A misdiagnosis of these models can
lead to serious accidents or even death. This concern has led to an interest
among researchers to study possible attacks on these models, discovering a long
list of vulnerabilities, from which every model should be defended. The
adversarial example attack is a widely known attack among researchers, who have
developed several defenses to avoid such a threat. However, these defenses are
as opaque as a deep neural network model, how they work is still unknown. This
is why visualizing how they change the behavior of the target model is
interesting in order to understand more precisely how the performance of the
defended model is being modified. For this work, some defenses, against
adversarial example attack, have been selected in order to visualize the
behavior modification of each of them in the defended model. Adversarial
training, dimensionality reduction and prediction similarity were the selected
defenses, which have been developed using a model composed by convolution
neural network layers and dense neural network layers. In each defense, the
behavior of the original model has been compared with the behavior of the
defended model, representing the target model by a graph in a visualization.
- Abstract(参考訳): 近年、深層ニューラルネットワークモデルが様々な分野で開発され、多くの進歩をもたらしている。
しかし、リスクが重要となるタスクでも、それらが使われ始めています。
これらのモデルの誤診は重大な事故や死亡につながる可能性がある。
この懸念は、すべてのモデルを守るべき脆弱性の長いリストを発見することで、これらのモデルに対する攻撃の可能性を研究する研究者の関心につながった。
敵の例攻撃は研究者の間で広く知られている攻撃であり、そのような脅威を避けるためにいくつかの防御を開発した。
しかし、これらの防御はディープニューラルネットワークモデルと同じくらい不透明であり、その動作方法はまだ不明である。
防御されたモデルのパフォーマンスがどのように変更されているのかをより正確に理解するために、ターゲットモデルの振る舞いをどのように変更するかを視覚化することが興味深い理由です。
本研究は, 防御モデルにおいて, それぞれの行動変化を可視化するために, 敵の例攻撃に対する防御が選択されている。
畳み込みニューラルネットワーク層と高密度ニューラルネットワーク層で構成されたモデルを用いて, 敵のトレーニング, 次元減少, 予測類似性が選択された防御条件である。
各防御において、元のモデルの挙動と防御されたモデルの挙動を比較し、対象モデルを視覚化のグラフで表現する。
関連論文リスト
- Topological safeguard for evasion attack interpreting the neural
networks' behavior [0.0]
本研究は, 新規な回避攻撃検知装置の開発である。
入力サンプルが注入されたとき、モデルによって与えられるニューロンの活性化に関する情報に焦点を当てる。
この目的のためには、これらの情報をすべて検出器に導入するために、巨大なデータ前処理が必要である。
論文 参考訳(メタデータ) (2024-02-12T08:39:40Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Deviations in Representations Induced by Adversarial Attacks [0.0]
研究によると、ディープラーニングモデルは敵の攻撃に弱い。
この発見は研究の新たな方向性をもたらし、脆弱性のあるネットワークを攻撃して防御するためにアルゴリズムが開発された。
本稿では,敵攻撃によって引き起こされる表現の偏差を計測し,解析する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T17:40:08Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。