論文の概要: Increasing the Confidence of Deep Neural Networks by Coverage Analysis
- arxiv url: http://arxiv.org/abs/2101.12100v1
- Date: Thu, 28 Jan 2021 16:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 18:09:31.695765
- Title: Increasing the Confidence of Deep Neural Networks by Coverage Analysis
- Title(参考訳): カバレッジ分析によるディープニューラルネットワークの信頼性向上
- Authors: Giulio Rossolini, Alessandro Biondi, Giorgio Carlo Buttazzo
- Abstract要約: 本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
- 参考スコア(独自算出の注目度): 71.57324258813674
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The great performance of machine learning algorithms and deep neural networks
in several perception and control tasks is pushing the industry to adopt such
technologies in safety-critical applications, as autonomous robots and
self-driving vehicles. At present, however, several issues need to be solved to
make deep learning methods more trustworthy, predictable, safe, and secure
against adversarial attacks. Although several methods have been proposed to
improve the trustworthiness of deep neural networks, most of them are tailored
for specific classes of adversarial examples, hence failing to detect other
corner cases or unsafe inputs that heavily deviate from the training samples.
This paper presents a lightweight monitoring architecture based on coverage
paradigms to enhance the model robustness against different unsafe inputs. In
particular, four coverage analysis methods are proposed and tested in the
architecture for evaluating multiple detection logics. Experimental results
show that the proposed approach is effective in detecting both powerful
adversarial examples and out-of-distribution inputs, introducing limited
extra-execution time and memory requirements.
- Abstract(参考訳): 機械学習アルゴリズムとディープニューラルネットワークのいくつかの認識と制御タスクにおける優れたパフォーマンスは、自動運転ロボットや自動運転車などの安全クリティカルなアプリケーションでそのような技術を採用する業界を推し進めています。
しかし、現在、深層学習手法をより信頼し、予測可能で、安全で、敵の攻撃に対して安全なものにするために、いくつかの課題を解決する必要がある。
ディープニューラルネットワークの信頼性を改善するためにいくつかの方法が提案されているが、そのほとんどは特定の対向的な例のクラスに適合しており、訓練サンプルから大きく逸脱する他のコーナーケースや安全でない入力を検出することができない。
本稿では,異なる安全でない入力に対するモデルのロバスト性を高めるために,カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
特に、4つのカバレッジ分析手法が提案され、複数の検出ロジックを評価するためのアーキテクチャでテストされている。
実験の結果,提案手法は,実行時間とメモリ要求の制限を伴い,強力な逆例と分散入力の両方を検出するのに有効であることがわかった。
関連論文リスト
- Detecting Adversarial Attacks in Semantic Segmentation via Uncertainty Estimation: A Deep Analysis [12.133306321357999]
セグメンテーションのためのニューラルネットワークに対する敵攻撃を検出する不確実性に基づく手法を提案する。
我々は,不確実性に基づく敵攻撃の検出と様々な最先端ニューラルネットワークの詳細な解析を行う。
提案手法の有効性を示す数値実験を行った。
論文 参考訳(メタデータ) (2024-08-19T14:13:30Z) - Advancing Security in AI Systems: A Novel Approach to Detecting
Backdoors in Deep Neural Networks [3.489779105594534]
バックドアは、ディープニューラルネットワーク(DNN)上の悪意あるアクターと、データ処理のためのクラウドサービスによって悪用される。
提案手法は高度テンソル分解アルゴリズムを利用して,事前学習したDNNの重みを慎重に解析し,バックドアモデルとクリーンモデルとの区別を行う。
この進歩は、ネットワークシステムにおけるディープラーニングとAIのセキュリティを強化し、新興技術の脅威の進化に対して不可欠なサイバーセキュリティを提供する。
論文 参考訳(メタデータ) (2024-03-13T03:10:11Z) - Adversarial Robustness of Deep Neural Networks: A Survey from a Formal
Verification Perspective [7.821877331499578]
悪意ある操作を受けた入力を扱う場合、ニューラルネットワークの信頼性を懸念する敵対的堅牢性は、セキュリティと機械学習において最もホットなトピックの1つである。
我々は、ニューラルネットワークの対向的堅牢性検証における既存の文献を調査し、機械学習、セキュリティ、ソフトウェアエンジニアリングドメインにわたる39の多様な研究成果を収集する。
我々は、このトピックを包括的に理解するために、形式的検証の観点から分類を提供する。
論文 参考訳(メタデータ) (2022-06-24T11:53:12Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - A cognitive based Intrusion detection system [0.0]
侵入検知は、コンピュータネットワークのセキュリティを提供する重要なメカニズムの1つである。
本稿では,Deep Neural Network Ans Supportctor Machine Classifierに基づく新しい手法を提案する。
提案手法は, 侵入検知に類似した手法により, より精度良く攻撃を予測できる。
論文 参考訳(メタデータ) (2020-05-19T13:30:30Z) - Certifiable Robustness to Adversarial State Uncertainty in Deep
Reinforcement Learning [40.989393438716476]
ディープニューラルネットワークベースのシステムは、現在では多くのロボティクスタスクにおいて最先端のシステムとなっているが、ネットワークの堅牢性に関する公式な保証なしに、安全クリティカルドメインへの適用は危険なままである。
センサー入力に対する小さな摂動は、しばしばネットワークベースの決定を変えるのに十分である。
この研究は、認証された敵対的ロバスト性の研究を活用して、深い強化学習アルゴリズムのためのオンラインロバストを開発する。
論文 参考訳(メタデータ) (2020-04-11T21:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。