論文の概要: Defensive Perception: Estimation and Monitoring of Neural Network
Performance under Deployment
- arxiv url: http://arxiv.org/abs/2308.06299v1
- Date: Fri, 11 Aug 2023 07:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 18:15:10.639585
- Title: Defensive Perception: Estimation and Monitoring of Neural Network
Performance under Deployment
- Title(参考訳): ディフェンシブ・パーセプション:デプロイ時のニューラルネットワーク性能の推定とモニタリング
- Authors: Hendrik Vogt, Stefan Buehler, Mark Schutera
- Abstract要約: 本稿では,自律運転におけるセマンティックセグメンテーションのためのニューラルネットワークにおける未知の破滅的展開とドメインシフトの問題に対処する手法を提案する。
我々のアプローチは、自律運転に対するディープラーニングに基づく認識が不確実であり、確率分布として最もよく表されるという考えに基づいている。
- 参考スコア(独自算出の注目度): 0.6982738885923204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a method for addressing the issue of unnoticed
catastrophic deployment and domain shift in neural networks for semantic
segmentation in autonomous driving. Our approach is based on the idea that deep
learning-based perception for autonomous driving is uncertain and best
represented as a probability distribution. As autonomous vehicles' safety is
paramount, it is crucial for perception systems to recognize when the vehicle
is leaving its operational design domain, anticipate hazardous uncertainty, and
reduce the performance of the perception system. To address this, we propose to
encapsulate the neural network under deployment within an uncertainty
estimation envelope that is based on the epistemic uncertainty estimation
through the Monte Carlo Dropout approach. This approach does not require
modification of the deployed neural network and guarantees expected model
performance. Our defensive perception envelope has the capability to estimate a
neural network's performance, enabling monitoring and notification of entering
domains of reduced neural network performance under deployment. Furthermore,
our envelope is extended by novel methods to improve the application in
deployment settings, including reducing compute expenses and confining
estimation noise. Finally, we demonstrate the applicability of our method for
multiple different potential deployment shifts relevant to autonomous driving,
such as transitions into the night, rainy, or snowy domain. Overall, our
approach shows great potential for application in deployment settings and
enables operational design domain recognition via uncertainty, which allows for
defensive perception, safe state triggers, warning notifications, and feedback
for testing or development and adaptation of the perception stack.
- Abstract(参考訳): 本稿では,自律運転におけるセマンティクスセグメンテーションのためのニューラルネットワークにおける未知の破滅的展開とドメインシフトの問題に対処する手法を提案する。
我々のアプローチは、自律運転に対するディープラーニングに基づく認識が不確実であり、確率分布として最もよく表されるという考えに基づいている。
自動運転車の安全性は最重要であり、認識システムは、車両が運用設計領域を離れるタイミングを認識し、危険な不確実性を予測し、知覚システムの性能を低下させることが重要である。
そこで本研究では,モンテカルロドロップアウトアプローチによる認識的不確実性推定に基づく不確実性推定エンベロープ内に,展開下のニューラルネットワークをカプセル化する手法を提案する。
このアプローチでは、デプロイされたニューラルネットワークを変更する必要はなく、期待されるモデルパフォーマンスが保証される。
私たちの防御的知覚エンベロープは、ニューラルネットワークのパフォーマンスを推定し、デプロイ時のニューラルネットワークパフォーマンスを低下させる入力ドメインの監視と通知を可能にする能力を持っています。
さらに、計算コストの削減や推定ノイズの閉じ込めなど、デプロイメント設定のアプリケーションを改善するための新しい方法によって封筒を拡張します。
最後に, 夜間, 雨天, 積雪地への遷移など, 自律運転に関連する複数の潜在的な展開シフトに対する本手法の適用性を示す。
全体として、当社のアプローチは、デプロイメント設定におけるアプリケーションにとって大きな可能性を示し、不確実性を通じた運用設計ドメイン認識を可能にします。
関連論文リスト
- Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Boosting Adversarial Robustness using Feature Level Stochastic Smoothing [46.86097477465267]
敵の防御は、ディープニューラルネットワークの堅牢性を大幅に向上させた。
本研究では,ネットワーク予測における導入性に関する一般的な手法を提案する。
また、信頼性の低い予測を拒否する意思決定の円滑化にも活用する。
論文 参考訳(メタデータ) (2023-06-10T15:11:24Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - End-to-end Uncertainty-based Mitigation of Adversarial Attacks to
Automated Lane Centering [12.11406399284803]
我々は,認識,計画,制御モジュール全体にわたる敵の攻撃の影響に対処するエンドツーエンドアプローチを提案する。
われわれのアプローチは、敵攻撃の影響を効果的に軽減し、元のOpenPilotよりも55%から90%改善できる。
論文 参考訳(メタデータ) (2021-02-27T22:36:32Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Ramifications of Approximate Posterior Inference for Bayesian Deep
Learning in Adversarial and Out-of-Distribution Settings [7.476901945542385]
ベイジアン深層学習モデルが従来のニューラルネットワークよりわずかに優れていることを示す。
予備的な調査は、初期化、アーキテクチャ、アクティベーション関数の選択によるバイアスの潜在的固有の役割を示している。
論文 参考訳(メタデータ) (2020-09-03T16:58:15Z) - Can Autonomous Vehicles Identify, Recover From, and Adapt to
Distribution Shifts? [104.04999499189402]
トレーニング外の配布(OOD)シナリオは、デプロイ時にエージェントを学ぶ上で一般的な課題である。
インプロバスト模倣計画(RIP)と呼ばれる不確実性を考慮した計画手法を提案する。
提案手法は,OODシーンにおける過信および破滅的な外挿を低減し,分布変化を検知し,回復することができる。
分散シフトを伴うタスク群に対する駆動エージェントのロバスト性を評価するために,自動走行車ノベルシーンベンチマークであるtexttCARNOVEL を導入する。
論文 参考訳(メタデータ) (2020-06-26T11:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。