論文の概要: Introduction to Neural Network Verification
- arxiv url: http://arxiv.org/abs/2109.10317v1
- Date: Tue, 21 Sep 2021 16:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:30:25.849215
- Title: Introduction to Neural Network Verification
- Title(参考訳): ニューラルネットワーク検証入門
- Authors: Aws Albarghouthi
- Abstract要約: ディープラーニングは、ソフトウェアに対する考え方と、それができることを変えました。
しかし、ディープニューラルネットワークは脆弱で、その振る舞いはしばしば驚きます。
この本は、形式的検証からニューラルネットワークとディープラーニングに関する推論への適応までの基礎的アイデアを取り上げている。
- 参考スコア(独自算出の注目度): 10.051309746913512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has transformed the way we think of software and what it can
do. But deep neural networks are fragile and their behaviors are often
surprising. In many settings, we need to provide formal guarantees on the
safety, security, correctness, or robustness of neural networks. This book
covers foundational ideas from formal verification and their adaptation to
reasoning about neural networks and deep learning.
- Abstract(参考訳): ディープラーニングは、ソフトウェアに対する考え方と、それができることを変えました。
しかし、ディープニューラルネットワークは脆弱で、その振る舞いはしばしば驚きます。
多くの設定において、ニューラルネットワークの安全性、セキュリティ、正確性、堅牢性に関する正式な保証を提供する必要があります。
この本は、形式的検証からニューラルネットワークとディープラーニングに関する推論への適応までの基礎的アイデアを取り上げている。
関連論文リスト
- DeepCSHAP: Utilizing Shapley Values to Explain Deep Complex-Valued
Neural Networks [7.4841568561701095]
ディープニューラルネットワークは、アカデミーや企業や公共のアプリケーションで広く使われている。
アウトプットを説明する能力は、安全上の理由だけでなく、応募者の受け入れにも不可欠である。
複素数値ニューラルネットワークでの使用に適した4つの勾配に基づく説明法を提案する。
論文 参考訳(メタデータ) (2024-03-13T11:26:43Z) - End-To-End Set-Based Training for Neural Network Verification [10.089345165782918]
安全に重要な環境は、入力の摂動に対して堅牢なニューラルネットワークを必要とする。
我々は、堅牢なニューラルネットワークをトレーニングして正式な検証を行う、エンドツーエンドのセットベーストレーニング手順を採用している。
多くの場合、セットベースでトレーニングされたニューラルネットワークは、最先端の敵攻撃でトレーニングされたニューラルネットワークより優れている。
論文 参考訳(メタデータ) (2024-01-26T15:52:41Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - The mathematics of adversarial attacks in AI -- Why deep learning is
unstable despite the existence of stable neural networks [69.33657875725747]
固定アーキテクチャを用いた分類問題に対するニューラルネットワークのトレーニングに基づくトレーニング手順が,不正確あるいは不安定なニューラルネットワーク(正確であれば)を生み出すことを証明している。
鍵となるのは、安定かつ正確なニューラルネットワークは入力に依存する可変次元を持つ必要があり、特に、可変次元は安定性に必要な条件である。
我々の結果は、正確で安定したニューラルネットワークが存在するというパラドックスを示しているが、現代のアルゴリズムはそれらを計算していない。
論文 参考訳(メタデータ) (2021-09-13T16:19:25Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Towards Repairing Neural Networks Correctly [6.600380575920419]
本稿では,ニューラルネットワークの正確性を保証するための実行時検証手法を提案する。
実験結果から,本手法は特性を満たすことが保証されたニューラルネットワークを効果的に生成することが示された。
論文 参考訳(メタデータ) (2020-12-03T12:31:07Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - An SMT-Based Approach for Verifying Binarized Neural Networks [1.4394939014120451]
本稿では,SMTを用いた二元化ニューラルネットワークの検証手法を提案する。
我々の手法の1つの新しい点は、二項化コンポーネントと非二項化コンポーネントの両方を含むニューラルネットワークの検証を可能にすることである。
我々は、この手法をマラブーフレームワークの拡張として実装し、一般的な二項化ニューラルネットワークアーキテクチャのアプローチを評価する。
論文 参考訳(メタデータ) (2020-11-05T16:21:26Z) - Verifying Recurrent Neural Networks using Invariant Inference [0.0]
本稿では,リカレントニューラルネットワーク(Recurrent Neural Network)と呼ばれる,ニューラルネットワークの多種多様な特性を検証するための新しいアプローチを提案する。
この手法は不変量の推論に基づいており、再帰的ネットワークを単純かつ非再帰的な問題に検証する際の複雑な問題を軽減できる。
論文 参考訳(メタデータ) (2020-04-06T08:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。