論文の概要: A Survey of Neural Trojan Attacks and Defenses in Deep Learning
- arxiv url: http://arxiv.org/abs/2202.07183v1
- Date: Tue, 15 Feb 2022 04:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 14:28:38.629584
- Title: A Survey of Neural Trojan Attacks and Defenses in Deep Learning
- Title(参考訳): 深層学習における神経トロイの木馬攻撃と防御に関する研究
- Authors: Jie Wang, Ghulam Mubashar Hassan, Naveed Akhtar
- Abstract要約: 近年、深層学習はトロイの木を埋め込んで操作できることが判明した。
我々は、トロイアの攻撃を深層学習のために考案し、その防御を探求する手法を包括的に検討する。
- 参考スコア(独自算出の注目度): 25.280353902632978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) relies heavily on deep learning - a technology
that is becoming increasingly popular in real-life applications of AI, even in
the safety-critical and high-risk domains. However, it is recently discovered
that deep learning can be manipulated by embedding Trojans inside it.
Unfortunately, pragmatic solutions to circumvent the computational requirements
of deep learning, e.g. outsourcing model training or data annotation to third
parties, further add to model susceptibility to the Trojan attacks. Due to the
key importance of the topic in deep learning, recent literature has seen many
contributions in this direction. We conduct a comprehensive review of the
techniques that devise Trojan attacks for deep learning and explore their
defenses. Our informative survey systematically organizes the recent literature
and discusses the key concepts of the methods while assuming minimal knowledge
of the domain on the readers part. It provides a comprehensible gateway to the
broader community to understand the recent developments in Neural Trojans.
- Abstract(参考訳): AI(Artificial Intelligence)は、ディープラーニングに大きく依存する — 安全クリティカルでリスクの高いドメインであっても、AIの現実的な応用でますます人気が高まっているテクノロジだ。
しかし,近年,トロイの木馬を組み込んで深層学習を操作できることが判明した。
残念ながら、モデルトレーニングやデータアノテーションを第三者にアウトソーシングするなど、ディープラーニングの計算的要件を回避するための実用的ソリューションは、さらにトロイア攻撃に対するモデル感受性を高める。
深層学習におけるこのトピックの重要性から、近年の文献はこの方向に多くの貢献をしている。
我々は、深層学習のためのトロイア攻撃を考案し、その防御を探求する技術について包括的なレビューを行う。
本調査は,最近の文献を体系的に整理し,読者のドメイン知識を最小にしつつ,手法の重要な概念について考察する。
ニューラルトロイの木馬の最近の発展を理解するために、より広いコミュニティへの理解可能なゲートウェイを提供する。
関連論文リスト
- A Survey of Trojan Attacks and Defenses to Deep Neural Networks [3.9444202574850755]
ディープニューラルネットワーク(DNN)は、安全クリティカルな人工知能システムに広範囲に応用されている。
最近の研究では、敵から悪意ある注射を受けたニューラルネットワークトロイの木馬(NNトロイの木馬)への感受性が明らかにされている。
論文 参考訳(メタデータ) (2024-08-15T04:20:32Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - A Review and Comparison of AI Enhanced Side Channel Analysis [10.012903753622284]
サイドチャネル分析(SCA)は、現代のコンピューティングシステムにおいて、プライバシーとセキュリティに対する明らかな脅威である。
我々は、サイドチャネル分析のための最新の最先端ディープラーニング技術、それらの背後にある理論、その実施方法について検討する。
論文 参考訳(メタデータ) (2024-02-03T23:33:24Z) - A Deep Learning Approach for Ontology Enrichment from Unstructured Text [2.932750332087746]
既存のWeb上の攻撃、コントロール、アドバイザリの情報脆弱性は、セキュリティ分析を表現し、実行する機会を提供する。
自然言語処理とMLモデルに基づくオントロジーエンリッチメントアルゴリズムは、単語、フレーズ、文における概念の文脈的抽出に問題がある。
大規模なDBデータセットと2.8GBのウィキペディアコーパスとUniversal Sentenceでトレーニングされた双方向LSTMは、ISOベースの情報セキュリティを強化するためにデプロイされる。
論文 参考訳(メタデータ) (2021-12-16T01:32:21Z) - Adversarial Robustness of Deep Learning: Theory, Algorithms, and
Applications [27.033174829788404]
本チュートリアルは,ディープラーニングの敵対的堅牢性の基礎を紹介することを目的としている。
我々は、ディープニューラルネットワーク(DNN)の敵攻撃と堅牢性検証における最先端技術を強調します。
深層学習モデルの堅牢性を改善するための効果的な対策も導入する。
論文 参考訳(メタデータ) (2021-08-24T00:08:33Z) - Threat of Adversarial Attacks on Deep Learning in Computer Vision:
Survey II [86.51135909513047]
ディープラーニングは、予測を操作できる敵攻撃に対して脆弱である。
本稿では,ディープラーニングに対する敵対的攻撃におけるコンピュータビジョンコミュニティの貢献を概観する。
この領域では、非専門家に技術的な用語の定義を提供する。
論文 参考訳(メタデータ) (2021-08-01T08:54:47Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Optimism in the Face of Adversity: Understanding and Improving Deep
Learning through Adversarial Robustness [63.627760598441796]
深層学習における対角的強靭性の分野を詳細に検討する。
直感的な対向例と深層ニューラルネットワークの幾何学的関係を強調した。
セキュリティを超えた敵の堅牢性の主な応用について概説する。
論文 参考訳(メタデータ) (2020-10-19T16:03:46Z) - Blackbox Trojanising of Deep Learning Models : Using non-intrusive
network structure and binary alterations [0.0]
本研究は,任意の深層学習画像分類モデルに対して,単純なネットワーク構造を改良したブラックボックス・トロヤージング手法を提案する。
これらのモデルに十分な安全保護を提供することの重要性を強調し、AIイノベーションと採用の意図された利益を保護できることを強調している。
論文 参考訳(メタデータ) (2020-08-02T06:33:47Z) - Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems [108.81683598693539]
オフラインの強化学習アルゴリズムは、巨大なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題を理解することを目的としている。
論文 参考訳(メタデータ) (2020-05-04T17:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。