論文の概要: Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction
- arxiv url: http://arxiv.org/abs/2211.08701v1
- Date: Wed, 16 Nov 2022 06:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:48:02.540281
- Title: Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction
- Title(参考訳): ロバスト軌道予測のための解釈可能な自己認識ニューラルネットワーク
- Authors: Masha Itkina and Mykel J. Kochenderfer
- Abstract要約: 本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 50.79827516897913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although neural networks have seen tremendous success as predictive models in
a variety of domains, they can be overly confident in their predictions on
out-of-distribution (OOD) data. To be viable for safety-critical applications,
like autonomous vehicles, neural networks must accurately estimate their
epistemic or model uncertainty, achieving a level of system self-awareness.
Techniques for epistemic uncertainty quantification often require OOD data
during training or multiple neural network forward passes during inference.
These approaches may not be suitable for real-time performance on
high-dimensional inputs. Furthermore, existing methods lack interpretability of
the estimated uncertainty, which limits their usefulness both to engineers for
further system development and to downstream modules in the autonomy stack. We
propose the use of evidential deep learning to estimate the epistemic
uncertainty over a low-dimensional, interpretable latent space in a trajectory
prediction setting. We introduce an interpretable paradigm for trajectory
prediction that distributes the uncertainty among the semantic concepts: past
agent behavior, road structure, and social context. We validate our approach on
real-world autonomous driving data, demonstrating superior performance over
state-of-the-art baselines. Our code is available at:
https://github.com/sisl/InterpretableSelfAwarePrediction.
- Abstract(参考訳): ニューラルネットワークは様々な領域で予測モデルとして大きな成功を収めてきたが、アウト・オブ・ディストリビューション(OOD)データに対する予測に過度に自信を持っている。
自動運転車のような安全クリティカルな応用のためには、ニューラルネットワークは認識論的あるいはモデルの不確実性を正確に推定し、システムの自己認識レベルを達成する必要がある。
てんかん不確実性定量化のための技術は、トレーニング中にOODデータを必要とする場合が多い。
これらの手法は高次元入力におけるリアルタイム性能には適さないかもしれない。
さらに、既存の手法では推定された不確実性の解釈性に欠けており、さらなるシステム開発のためのエンジニアと自律スタックの下流モジュールの両方に有用性を制限する。
本稿では, 軌跡予測設定において, 低次元, 解釈可能な潜在空間上での認識不確かさを推定するために, 明らかな深層学習を用いることを提案する。
我々は,過去のエージェント行動,道路構造,社会的文脈といった意味概念間の不確かさを分散した軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
私たちのコードは、https://github.com/sisl/InterpretableSelfAwarePredictionで利用可能です。
関連論文リスト
- Reliable Probabilistic Human Trajectory Prediction for Autonomous Applications [1.8294777056635267]
車両システムは信頼性、正確、高速、資源効率、スケーラブル、低遅延軌道予測を必要とする。
本稿では,これらの要求に対処する軽量な手法として,Long Short-Term Memory と Mixture Density Networks を提案する。
自動運転車アプリケーションにおける人体軌道予測の必須要件について考察し,交通関連データセットを用いて本手法の性能を実証する。
論文 参考訳(メタデータ) (2024-10-09T14:08:39Z) - GRANP: A Graph Recurrent Attentive Neural Process Model for Vehicle Trajectory Prediction [3.031375888004876]
車両軌道予測のためのGRANP(Graph Recurrent Attentive Neural Process)という新しいモデルを提案する。
GRANPには、決定論的パスと遅延パスを持つエンコーダと、予測のためのデコーダが含まれている。
我々は,GRANPが最先端の結果を達成し,不確実性を効率的に定量化できることを示す。
論文 参考訳(メタデータ) (2024-04-09T05:51:40Z) - Interpretable Goal-Based model for Vehicle Trajectory Prediction in
Interactive Scenarios [4.1665957033942105]
自動車とその周囲の社会的相互作用は、自動運転における道路安全にとって重要である。
対話型環境における車両軌道予測のためのニューラルネットワークモデルを提案する。
我々は、InterActionデータセットを用いてモデルを実装し、評価し、提案したアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T15:00:12Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Learning Uncertainty with Artificial Neural Networks for Improved
Predictive Process Monitoring [0.114219428942199]
学習可能な不確実性には、トレーニングデータ不足によるモデル不確実性と、ノイズによる観察不確実性がある。
我々の貢献は、これらの不確実性の概念を予測プロセス監視タスクに適用し、不確実性に基づくモデルをトレーニングし、残りの時間と結果を予測することである。
論文 参考訳(メタデータ) (2022-06-13T17:05:27Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z) - Out-of-Distribution Detection for Automotive Perception [58.34808836642603]
ニューラルネットワーク(NN)は、自律運転におけるオブジェクト分類に広く使われている。
NNは、アウト・オブ・ディストリビューション(OOD)データとして知られるトレーニングデータセットで適切に表現されていない入力データでフェールすることができる。
本稿では,OODデータを必要としない入力がOODであるか否かを判定し,推論の計算コストを増大させる方法を提案する。
論文 参考訳(メタデータ) (2020-11-03T01:46:35Z) - DSDNet: Deep Structured self-Driving Network [92.9456652486422]
本稿では,1つのニューラルネットワークを用いて物体検出,動き予測,動き計画を行うDeep Structured Self-Driving Network (DSDNet)を提案する。
我々は,アクター間の相互作用を考慮し,社会的に一貫したマルチモーダル未来予測を生成する,深く構造化されたエネルギーベースモデルを開発する。
論文 参考訳(メタデータ) (2020-08-13T17:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。