論文の概要: Generalizability Analysis of Graph-based Trajectory Predictor with
Vectorized Representation
- arxiv url: http://arxiv.org/abs/2208.03578v1
- Date: Sat, 6 Aug 2022 20:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 13:43:09.658569
- Title: Generalizability Analysis of Graph-based Trajectory Predictor with
Vectorized Representation
- Title(参考訳): ベクトル化表現を用いたグラフ型軌道予測器の一般化解析
- Authors: Juanwu Lu, Wei Zhan, Masayoshi Tomizuka, Yeping Hu
- Abstract要約: 軌道予測は自動運転車にとって不可欠な課題の1つである。
機械学習の最近の進歩は、一連の高度な軌道予測アルゴリズムを生み出した。
- 参考スコア(独自算出の注目度): 29.623692599892365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory prediction is one of the essential tasks for autonomous vehicles.
Recent progress in machine learning gave birth to a series of advanced
trajectory prediction algorithms. Lately, the effectiveness of using graph
neural networks (GNNs) with vectorized representations for trajectory
prediction has been demonstrated by many researchers. Nonetheless, these
algorithms either pay little attention to models' generalizability across
various scenarios or simply assume training and test data follow similar
statistics. In fact, when test scenarios are unseen or Out-of-Distribution
(OOD), the resulting train-test domain shift usually leads to significant
degradation in prediction performance, which will impact downstream modules and
eventually lead to severe accidents. Therefore, it is of great importance to
thoroughly investigate the prediction models in terms of their
generalizability, which can not only help identify their weaknesses but also
provide insights on how to improve these models. This paper proposes a
generalizability analysis framework using feature attribution methods to help
interpret black-box models. For the case study, we provide an in-depth
generalizability analysis of one of the state-of-the-art graph-based trajectory
predictors that utilize vectorized representation. Results show significant
performance degradation due to domain shift, and feature attribution provides
insights to identify potential causes of these problems. Finally, we conclude
the common prediction challenges and how weighting biases induced by the
training process can deteriorate the accuracy.
- Abstract(参考訳): 軌道予測は自動運転車にとって不可欠な課題の1つである。
機械学習の最近の進歩は、一連の高度な軌道予測アルゴリズムを生み出した。
近年,ベクトル化表現を用いたグラフニューラルネットワーク(gnns)の軌道予測の有効性が多くの研究者によって実証されている。
それにもかかわらず、これらのアルゴリズムは様々なシナリオにわたるモデルの一般化可能性にほとんど注意を払わないか、あるいはトレーニングとテストデータが同様の統計に従うと仮定する。
実際、テストシナリオが見えない場合や、アウト・オブ・ディストリビューション(OOD)の場合、結果のトレイン・テストのドメインシフトは通常、予測性能が大幅に低下し、下流のモジュールに影響を与え、最終的には深刻な事故を引き起こす。
したがって、それらの一般化可能性の観点から予測モデルを徹底的に研究することが重要であり、その弱点を識別するだけでなく、これらのモデルを改善するための洞察を与えることもできる。
本稿では,ブラックボックスモデルの解釈を支援する特徴属性法による一般化可能性分析フレームワークを提案する。
本ケーススタディでは,ベクトル化表現を用いた最先端のグラフベース軌道予測器の詳細な一般化解析を行う。
結果は、ドメインシフトによるパフォーマンスの大幅な低下を示し、これらの問題の潜在的な原因を特定するための洞察を提供する。
最後に、一般的な予測課題と、トレーニングプロセスによって引き起こされる重み付けバイアスが精度を低下させる可能性について結論づける。
関連論文リスト
- Critical Example Mining for Vehicle Trajectory Prediction using Flow-based Generative Models [10.40439055916036]
本稿では,トラジェクトリの希少性を推定するデータ駆動手法を提案する。
観測の希少度を全軌跡と組み合わせることで,予測が比較的難しいデータのサブセットを効果的に同定する。
論文 参考訳(メタデータ) (2024-10-21T15:02:30Z) - Towards Generalizable and Interpretable Motion Prediction: A Deep
Variational Bayes Approach [54.429396802848224]
本稿では,分布外ケースに対する頑健な一般化性を有する動き予測のための解釈可能な生成モデルを提案する。
このモデルでは, 長期目的地の空間分布を推定することにより, 目標駆動動作予測を実現する。
動き予測データセットの実験は、適合したモデルが解釈可能で一般化可能であることを検証した。
論文 参考訳(メタデータ) (2024-03-10T04:16:04Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Interpretable and Generalizable Graph Learning via Stochastic Attention
Mechanism [6.289180873978089]
解釈可能なグラフ学習は、グラフ構造化データから洞察を集めるための学習モデルに依存する多くの科学的応用を必要としている。
以前の作業は主に、事前訓練されたモデルを解釈するためのポストホックアプローチの使用に重点を置いていた。
本稿では,情報ボトルネック原理に基づく注意機構であるグラフ注意(GSAT)を提案する。
論文 参考訳(メタデータ) (2022-01-31T03:59:48Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。