論文の概要: The Vulnerability of the Neural Networks Against Adversarial Examples in
Deep Learning Algorithms
- arxiv url: http://arxiv.org/abs/2011.05976v2
- Date: Tue, 17 Nov 2020 12:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 13:00:13.863376
- Title: The Vulnerability of the Neural Networks Against Adversarial Examples in
Deep Learning Algorithms
- Title(参考訳): ディープラーニングアルゴリズムの逆例に対するニューラルネットワークの脆弱性
- Authors: Rui Zhao
- Abstract要約: 本稿では,深層学習における逆例の問題を紹介し,ブラックボックスとホワイトボックスの既存の攻撃・防御手法を整理し,それらを分類する。
近年の様々なシナリオにおける敵の事例の応用を簡潔に記述し、敵の事例の防衛技術をいくつか比較し、最終的にこの研究分野の問題点と今後の発展の展望を要約する。
- 参考スコア(独自算出の注目度): 8.662390869320323
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With further development in the fields of computer vision, network security,
natural language processing and so on so forth, deep learning technology
gradually exposed certain security risks. The existing deep learning algorithms
cannot effectively describe the essential characteristics of data, making the
algorithm unable to give the correct result in the face of malicious input.
Based on current security threats faced by deep learning, this paper introduces
the problem of adversarial examples in deep learning, sorts out the existing
attack and defense methods of the black box and white box, and classifies them.
It briefly describes the application of some adversarial examples in different
scenarios in recent years, compares several defense technologies of adversarial
examples, and finally summarizes the problems in this research field and
prospects for its future development. This paper introduces the common white
box attack methods in detail, and further compares the similarities and
differences between the attack of the black and white box. Correspondingly, the
author also introduces the defense methods, and analyzes the performance of
these methods against the black and white box attack.
- Abstract(参考訳): コンピュータビジョン、ネットワークセキュリティ、自然言語処理などの分野のさらなる発展により、ディープラーニング技術は徐々に特定のセキュリティリスクを暴露していった。
既存のディープラーニングアルゴリズムは、データの本質的な特性を効果的に記述できないため、悪意のある入力に対して正しい結果を与えることができない。
深層学習が抱える現在のセキュリティ上の脅威に基づいて,本論文では,ブラックボックスとホワイトボックスの既存の攻撃・防御手法を分類し,それらを分類する。
近年の様々なシナリオにおける敵の事例の応用を簡潔に解説し、敵の事例の防衛技術をいくつか比較し、最終的にこの研究分野の問題点と今後の発展の展望をまとめた。
本稿では,一般的なホワイトボックス攻撃手法を詳細に紹介するとともに,ブラックボックスとホワイトボックスの類似点と相違点を比較した。
それに応じて、著者は防御方法を紹介し、これらの方法のパフォーマンスを白黒ボックス攻撃に対して分析する。
関連論文リスト
- Prompt Injection Attacks in Defended Systems [0.0]
ブラックボックス攻撃は、隠れた悪意のある機能を大きな言語モデルに埋め込むことができる。
本稿では,3段階の防御機構を持つ大規模言語モデルに対するブラックボックス攻撃手法について検討する。
論文 参考訳(メタデータ) (2024-06-20T07:13:25Z) - Topological safeguard for evasion attack interpreting the neural
networks' behavior [0.0]
本研究は, 新規な回避攻撃検知装置の開発である。
入力サンプルが注入されたとき、モデルによって与えられるニューロンの活性化に関する情報に焦点を当てる。
この目的のためには、これらの情報をすべて検出器に導入するために、巨大なデータ前処理が必要である。
論文 参考訳(メタデータ) (2024-02-12T08:39:40Z) - Adversarial Attacks and Defenses on 3D Point Cloud Classification: A
Survey [28.21038594191455]
優れた成果にもかかわらず、ディープラーニングアルゴリズムは敵の攻撃に対して脆弱である。
本稿では,まず,敵攻撃の原理と特徴を紹介し,敵の事例生成手法を要約し,分析する。
また、データ重視およびモデル重視の方法で組織された防衛戦略の概要も提供する。
論文 参考訳(メタデータ) (2023-07-01T11:46:36Z) - How Deep Learning Sees the World: A Survey on Adversarial Attacks &
Defenses [0.0]
本稿では、攻撃能力によってグループ化された最新の敵攻撃と、防御戦略によってクラスタ化された現代の防御をコンパイルする。
また、視覚変換器に関する新たな進歩を提示し、敵対的設定の文脈で使用されるデータセットとメトリクスを要約し、異なる攻撃下での最先端の結果を比較し、オープンな問題の特定で終了する。
論文 参考訳(メタデータ) (2023-05-18T10:33:28Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。