論文の概要: Toward Reliable Neural Specifications
- arxiv url: http://arxiv.org/abs/2210.16114v1
- Date: Fri, 28 Oct 2022 13:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:49:33.638557
- Title: Toward Reliable Neural Specifications
- Title(参考訳): 信頼できる神経仕様を目指して
- Authors: Chuqin Geng, Nham Le, Xiaojie Xu, Zhaoyue Wang, Arie Gurfinkel, Xujie
Si
- Abstract要約: 既存のニューラルネットワークの仕様は、仕様としてデータのパラダイムにある。
本稿では,ニューラル表現を仕様とする新しい仕様群を提案する。
NAPを用いて入力空間全体の予測を検証でき、データの84%をリコールできることを示す。
- 参考スコア(独自算出の注目度): 3.2722498341029653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Having reliable specifications is an unavoidable challenge in achieving
verifiable correctness, robustness, and interpretability of AI systems.
Existing specifications for neural networks are in the paradigm of data as
specification. That is, the local neighborhood centering around a reference
input is considered to be correct (or robust). However, our empirical study
shows that such a specification is extremely overfitted since usually no data
points from the testing set lie in the certified region of the reference input,
making them impractical for real-world applications. We propose a new family of
specifications called neural representation as specification, which uses the
intrinsic information of neural networks - neural activation patterns (NAP),
rather than input data to specify the correctness and/or robustness of neural
network predictions. We present a simple statistical approach to mining
dominant neural activation patterns. We analyze NAPs from a statistical point
of view and find that a single NAP can cover a large number of training and
testing data points whereas ad hoc data-as-specification only covers the given
reference data point. To show the effectiveness of discovered NAPs, we formally
verify several important properties, such as various types of
misclassifications will never happen for a given NAP, and there is no-ambiguity
between different NAPs. We show that by using NAP, we can verify the prediction
of the entire input space, while still recalling 84% of the data. Thus, we
argue that using NAPs is a more reliable and extensible specification for
neural network verification.
- Abstract(参考訳): 信頼できる仕様を持つことは、aiシステムの検証可能な正確性、堅牢性、解釈可能性を達成する上で避けられない課題である。
既存のニューラルネットワークの仕様は、仕様としてデータのパラダイムにある。
すなわち、参照入力を中心としたローカルな近所は正しい(または堅牢)と考えられている。
しかしながら、我々の実証的研究は、テストセットからのデータポイントが基準入力の認定領域にないため、そのような仕様は極めて過度に適合していることを示している。
本稿では、ニューラルネットワークの予測の正確性と/または堅牢性を特定するために入力データではなく、ニューラルネットワークの固有情報であるニューラルネットワーク活性化パターン(nap)を使用する、ニューラル表現という新しい仕様を提案する。
支配的なニューラルアクティベーションパターンをマイニングするための単純な統計的アプローチを提案する。
我々は統計的な観点からNAPを分析し、単一のNAPが大量のトレーニングやテストデータポイントをカバーできるのに対して、アドホックなデータ・アズ・セグメンテーションは与えられた参照データポイントのみをカバーする。
発見されたNAPの有効性を示すために、与えられたNAPに対して様々な種類の誤分類が起こらないこと、異なるNAPの間に曖昧さがないことなど、いくつかの重要な特性を正式に検証する。
NAPを用いて入力空間全体の予測を検証でき、データの84%をリコールできることを示す。
したがって、NAPの使用はより信頼性が高く拡張可能なニューラルネットワーク検証仕様であると主張する。
関連論文リスト
- VeriFlow: Modeling Distributions for Neural Network Verification [4.3012765978447565]
フォーマル検証は、ニューラルネットワークの安全性と信頼性を保証するための有望な方法として登場した。
本稿では,流れに基づく密度モデルとしてVeriFlowアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:41:39Z) - Learning Minimal Neural Specifications [5.497856406348316]
ニューラルネットワークが与えられたら、ネットワークの堅牢性の形式的検証に十分な最小限の(一般的な)NAP仕様を見つける。
我々は、最小限のNAP仕様を見つけるための、正確で近似的なアプローチをいくつか提案する。
論文 参考訳(メタデータ) (2024-04-06T15:31:20Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - $p$-DkNN: Out-of-Distribution Detection Through Statistical Testing of
Deep Representations [32.99800144249333]
我々は、訓練された深層ニューラルネットワークを使用し、その中間の隠蔽表現の類似構造を分析する新しい推論手順である$p$-DkNNを紹介した。
我々は、$p$-DkNNでアダプティブアタッカーが、最悪のOOD入力の形式である敵の例を作成して、入力に意味のある変更を導入する。
論文 参考訳(メタデータ) (2022-07-25T21:42:08Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Unifying supervised learning and VAEs -- coverage, systematics and
goodness-of-fit in normalizing-flow based neural network models for
astro-particle reconstructions [0.0]
統計的不確実性、包括性、体系的不確実性、あるいは適度な尺度はしばしば計算されない。
データとラベルの共分散のKL分割の目的は、教師付き学習と変分オートエンコーダの統合を可能にすることを示す。
本稿では,特定の「基本順序」輪郭の数値積分を伴わずにカバレッジ確率を計算する方法について論じる。
論文 参考訳(メタデータ) (2020-08-13T11:28:57Z) - Increasing Trustworthiness of Deep Neural Networks via Accuracy
Monitoring [20.456742449675904]
ディープニューラルネットワーク(DNN)の推論精度は重要なパフォーマンス指標であるが、実際のテストデータセットによって大きく異なる可能性がある。
これにより、特に安全クリティカルなアプリケーションにおいて、DNNの信頼性に関する重要な懸念が持ち上がっている。
本稿では、DNNのソフトマックス確率出力のみを入力とするニューラルネットワークに基づく精度監視モデルを提案する。
論文 参考訳(メタデータ) (2020-07-03T03:09:36Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。