論文の概要: Monitizer: Automating Design and Evaluation of Neural Network Monitors
- arxiv url: http://arxiv.org/abs/2405.10350v1
- Date: Thu, 16 May 2024 13:19:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 17:52:48.476101
- Title: Monitizer: Automating Design and Evaluation of Neural Network Monitors
- Title(参考訳): Monitizer: ニューラルネットワークモニタの設計と評価を自動化する
- Authors: Muqsit Azeem, Marta Grobelna, Sudeep Kanav, Jan Kretinsky, Stefanie Mohr, Sabine Rieder,
- Abstract要約: ニューラルネットワーク(NN)の、これまで目に見えないタイプのデータ(配布外またはOOD)に対する振舞いは、一般的に予測不可能である。
これは、ネットワークの出力が安全クリティカルなシステムにおける意思決定に使用される場合、危険になる可能性がある。
NNモニタのユーザと開発者向けのツールを提示する。
- 参考スコア(独自算出の注目度): 0.9236074230806581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The behavior of neural networks (NNs) on previously unseen types of data (out-of-distribution or OOD) is typically unpredictable. This can be dangerous if the network's output is used for decision-making in a safety-critical system. Hence, detecting that an input is OOD is crucial for the safe application of the NN. Verification approaches do not scale to practical NNs, making runtime monitoring more appealing for practical use. While various monitors have been suggested recently, their optimization for a given problem, as well as comparison with each other and reproduction of results, remain challenging. We present a tool for users and developers of NN monitors. It allows for (i) application of various types of monitors from the literature to a given input NN, (ii) optimization of the monitor's hyperparameters, and (iii) experimental evaluation and comparison to other approaches. Besides, it facilitates the development of new monitoring approaches. We demonstrate the tool's usability on several use cases of different types of users as well as on a case study comparing different approaches from recent literature.
- Abstract(参考訳): ニューラルネットワーク(NN)の、これまで目に見えないタイプのデータ(配布外またはOOD)に対する振舞いは、一般的に予測不可能である。
これは、ネットワークの出力が安全クリティカルなシステムにおける意思決定に使用される場合、危険になる可能性がある。
したがって、入力がOODであることを検出することは、NNの安全な適用に不可欠である。
検証アプローチは実践的なNNにスケールしないため、実行時の監視が実用的により魅力的になる。
近年、様々なモニタが提案されているが、与えられた問題に対する最適化や、相互比較、結果の再現は依然として困難である。
NNモニタのユーザと開発者向けのツールを提示する。
許す
一 文献から所定の入力NNへの各種モニタの適用
(二)モニターのハイパーパラメータの最適化、及び
三 実験評価及び他の方法との比較
さらに、新しいモニタリングアプローチの開発を容易にする。
本ツールのユーザビリティは,ユーザの種類によって異なるユースケースと,最近の文献との違いを比較したケーススタディで実証した。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - An LSTM-Based Predictive Monitoring Method for Data with Time-varying
Variability [3.5246670856011035]
本稿では、繰り返し発生するニューラルネットワーク構造がプロセスを監視する能力について考察する。
本研究では,長期短期記憶(LSTM)予測間隔に基づく時間変動データに対する制御チャートを提案する。
提案手法は時系列センサデータにも適用され,本手法が異常検出に有効な手法であることを確認した。
論文 参考訳(メタデータ) (2023-09-05T06:13:09Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Detection of out-of-distribution samples using binary neuron activation
patterns [0.26249027950824505]
未確認入力を新しいものとして識別する能力は、自動運転車、無人航空機、ロボットなどの安全上重要な応用に不可欠である。
OODサンプルを検出するための既存のアプローチでは、DNNをブラックボックスとして扱い、出力予測の信頼性スコアを評価する。
本稿では,新しいOOD検出法を提案する。本手法は,ReLUアーキテクチャにおけるニューロン活性化パターン(NAP)の理論的解析に動機付けられている。
論文 参考訳(メタデータ) (2022-12-29T11:42:46Z) - Runtime Monitoring for Out-of-Distribution Detection in Object Detection
Neural Networks [0.0]
監視は、業界で使用されている実際のニューラルネットワークの設定における検証の、より現実的で適用可能な代替手段を提供する。
本稿では,これまで提案されてきた分類ネットワークを,複数のオブジェクトの識別と位置同定が可能な認識システムに拡張する。
論文 参考訳(メタデータ) (2022-12-15T12:50:42Z) - Out-Of-Distribution Detection Is Not All You Need [0.0]
我々は,OOD検出は効率的なランタイムモニタの設計に適したフレームワークではないと主張している。
OOD設定におけるモニタの学習は誤解を招く可能性があることを示す。
また、誤ったトレーニングデータサンプルを削除することで、より良いモニターをトレーニングできることも示しています。
論文 参考訳(メタデータ) (2022-11-29T12:40:06Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Provably-Robust Runtime Monitoring of Neuron Activation Patterns [0.0]
ディープニューラルネットワークの入力がトレーニングで使用されるデータと似ている場合、運用時間で監視することが望ましい。
モニタ構築プロセス内に公式な記号的推論を統合することで,この問題に対処する。
証明可能な堅牢性は、単一のニューロンの監視が複数のビット以上を使用する場合にさらに一般化される。
論文 参考訳(メタデータ) (2020-11-24T08:37:18Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。