論文の概要: Adversarial Robustness of Deep Neural Networks: A Survey from a Formal
Verification Perspective
- arxiv url: http://arxiv.org/abs/2206.12227v1
- Date: Fri, 24 Jun 2022 11:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 14:54:07.758887
- Title: Adversarial Robustness of Deep Neural Networks: A Survey from a Formal
Verification Perspective
- Title(参考訳): ディープニューラルネットワークの敵対的ロバスト性:形式的検証の観点からの考察
- Authors: Mark Huasong Meng, Guangdong Bai, Sin Gee Teo, Zhe Hou, Yan Xiao, Yun
Lin, Jin Song Dong
- Abstract要約: 悪意ある操作を受けた入力を扱う場合、ニューラルネットワークの信頼性を懸念する敵対的堅牢性は、セキュリティと機械学習において最もホットなトピックの1つである。
我々は、ニューラルネットワークの対向的堅牢性検証における既存の文献を調査し、機械学習、セキュリティ、ソフトウェアエンジニアリングドメインにわたる39の多様な研究成果を収集する。
我々は、このトピックを包括的に理解するために、形式的検証の観点から分類を提供する。
- 参考スコア(独自算出の注目度): 7.821877331499578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have been widely applied in security applications such as
spam and phishing detection, intrusion prevention, and malware detection. This
black-box method, however, often has uncertainty and poor explainability in
applications. Furthermore, neural networks themselves are often vulnerable to
adversarial attacks. For those reasons, there is a high demand for trustworthy
and rigorous methods to verify the robustness of neural network models.
Adversarial robustness, which concerns the reliability of a neural network when
dealing with maliciously manipulated inputs, is one of the hottest topics in
security and machine learning. In this work, we survey existing literature in
adversarial robustness verification for neural networks and collect 39
diversified research works across machine learning, security, and software
engineering domains. We systematically analyze their approaches, including how
robustness is formulated, what verification techniques are used, and the
strengths and limitations of each technique. We provide a taxonomy from a
formal verification perspective for a comprehensive understanding of this
topic. We classify the existing techniques based on property specification,
problem reduction, and reasoning strategies. We also demonstrate representative
techniques that have been applied in existing studies with a sample model.
Finally, we discuss open questions for future research.
- Abstract(参考訳): ニューラルネットワークは、スパムやフィッシング検出、侵入防止、マルウェア検出などのセキュリティアプリケーションで広く利用されている。
しかし、このブラックボックス法はアプリケーションの不確実性や説明性に乏しいことが多い。
さらに、ニューラルネットワーク自体が、しばしば敵の攻撃に対して脆弱である。
これらの理由から,ニューラルネットワークモデルの堅牢性を検証するための信頼性の高い厳密な手法が求められている。
悪意のある操作された入力を扱う際のニューラルネットワークの信頼性に関する敵意の強固さは、セキュリティと機械学習において最もホットなトピックの1つだ。
本研究では,ニューラルネットワークの敵対的ロバスト性検証における既存文献を調査し,機械学習,セキュリティ,ソフトウェア工学分野にわたる39の研究成果を収集する。
頑健さの定式化,検証手法の活用,各手法の強みと限界など,それらのアプローチを体系的に分析する。
我々は,本トピックの包括的理解のために,形式的検証の観点から分類法を提案する。
既存の手法を特性仕様,問題解決,推論戦略に基づいて分類する。
また,サンプルモデルを用いた既存研究に応用された代表的手法を示す。
最後に,今後の課題について考察する。
関連論文リスト
- Constraint-based Adversarial Example Synthesis [1.2548803788632799]
この研究は、ニューラルネットワークを実装するPythonプログラムをテストするための特殊なテクニックであるConcolic Testingの強化に焦点を当てている。
拡張ツールであるPyCTは、浮動小数点演算やアクティベーション関数計算など、幅広いニューラルネットワーク操作に対応している。
論文 参考訳(メタデータ) (2024-06-03T11:35:26Z) - Utilizing Deep Learning for Enhancing Network Resilience in Finance [0.0]
本稿では、金融業界の保護対策を改善するため、高度な脅威検出にディープラーニングを用いる。
検出技術は主に統計的機械学習手法を使用する。
論文 参考訳(メタデータ) (2024-02-15T09:35:57Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - A cognitive based Intrusion detection system [0.0]
侵入検知は、コンピュータネットワークのセキュリティを提供する重要なメカニズムの1つである。
本稿では,Deep Neural Network Ans Supportctor Machine Classifierに基づく新しい手法を提案する。
提案手法は, 侵入検知に類似した手法により, より精度良く攻撃を予測できる。
論文 参考訳(メタデータ) (2020-05-19T13:30:30Z) - Survey of Network Intrusion Detection Methods from the Perspective of
the Knowledge Discovery in Databases Process [63.75363908696257]
本稿では,侵入検知器の開発を目的として,ネットワークデータに適用された手法について概説する。
本稿では,データのキャプチャ,準備,変換,データマイニング,評価などの手法について論じる。
この文献レビューの結果、ネットワークセキュリティ分野のさらなる研究のために考慮すべきいくつかのオープンな問題について検討する。
論文 参考訳(メタデータ) (2020-01-27T11:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。