論文の概要: Developing and Defeating Adversarial Examples
- arxiv url: http://arxiv.org/abs/2008.10106v1
- Date: Sun, 23 Aug 2020 21:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 03:13:21.090844
- Title: Developing and Defeating Adversarial Examples
- Title(参考訳): 敵対的事例の開発と定義
- Authors: Ian McDiarmid-Sterling and Allan Moser
- Abstract要約: 近年の研究では、ディープニューラルネットワーク(DNN)が敵の例によって攻撃可能であることが示されている。
本研究では, ヨーロV3物体検出器を攻撃するための逆例を開発する。
次に、これらの例を検出し、中和する戦略について研究する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breakthroughs in machine learning have resulted in state-of-the-art deep
neural networks (DNNs) performing classification tasks in safety-critical
applications. Recent research has demonstrated that DNNs can be attacked
through adversarial examples, which are small perturbations to input data that
cause the DNN to misclassify objects. The proliferation of DNNs raises
important safety concerns about designing systems that are robust to
adversarial examples. In this work we develop adversarial examples to attack
the Yolo V3 object detector [1] and then study strategies to detect and
neutralize these examples. Python code for this project is available at
https://github.com/ianmcdiarmidsterling/adversarial
- Abstract(参考訳): 機械学習のブレークスルーは、最先端のディープニューラルネットワーク(DNN)が安全クリティカルなアプリケーションで分類タスクを実行する結果となった。
近年の研究では、DNNがオブジェクトを誤分類する原因となる入力データに対する小さな摂動である敵例を通じてDNNを攻撃できることが示されている。
dnnの普及は、敵対的な例にロバストなシステムを設計する上で重要な安全性上の懸念を引き起こす。
本研究は,ヨーロV3物体検出器[1]を攻撃し,これらのサンプルを検出し中和するための戦略を研究する。
このプロジェクトのpythonコードはhttps://github.com/ianmcdiarmidsterling/adversarialで入手できる。
関連論文リスト
- Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Understanding Adversarial Examples Through Deep Neural Network's
Response Surface and Uncertainty Regions [1.8047694351309205]
本研究は,DNN対逆例の根本原因について考察する。
既存の攻撃アルゴリズムは、わずかから数百の敵の例から生成される。
クリーンサンプルが1つ与えられた場合, クリーンサンプルの小さな近傍に, 無限に多くの逆画像が存在することを示す。
論文 参考訳(メタデータ) (2021-06-30T02:38:17Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - On Intrinsic Dataset Properties for Adversarial Machine Learning [0.76146285961466]
本研究は,本質的なデータセット特性が敵攻撃および防御手法の性能に及ぼす影響について考察する。
入力サイズと画像コントラストが攻撃および防御の成功において重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2020-05-19T02:24:14Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。