論文の概要: Enhancing Mapless Trajectory Prediction through Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2306.14177v1
- Date: Sun, 25 Jun 2023 09:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 16:23:27.289223
- Title: Enhancing Mapless Trajectory Prediction through Knowledge Distillation
- Title(参考訳): 知識蒸留によるマップレス軌道予測の強化
- Authors: Yuning Wang, Pu Zhang, Lei Bai, Jianru Xue
- Abstract要約: ハイデフィニションマップ(HDマップ)は、アノテーションの高コストや、広く使われることを制限する法律の制限に悩まされる可能性がある。
本稿では,マルチモーダルな予測軌道の整合性と実際の道路トポロジの整合性を改善する問題に取り組む。
我々の解は、一般的な軌道予測ネットワークに対して一般化可能であり、余分な計算負担を伴わない。
- 参考スコア(独自算出の注目度): 19.626383744807068
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Scene information plays a crucial role in trajectory forecasting systems for
autonomous driving by providing semantic clues and constraints on potential
future paths of traffic agents. Prevalent trajectory prediction techniques
often take high-definition maps (HD maps) as part of the inputs to provide
scene knowledge. Although HD maps offer accurate road information, they may
suffer from the high cost of annotation or restrictions of law that limits
their widespread use. Therefore, those methods are still expected to generate
reliable prediction results in mapless scenarios. In this paper, we tackle the
problem of improving the consistency of multi-modal prediction trajectories and
the real road topology when map information is unavailable during the test
phase. Specifically, we achieve this by training a map-based prediction teacher
network on the annotated samples and transferring the knowledge to a student
mapless prediction network using a two-fold knowledge distillation framework.
Our solution is generalizable for common trajectory prediction networks and
does not bring extra computation burden. Experimental results show that our
method stably improves prediction performance in mapless mode on many widely
used state-of-the-art trajectory prediction baselines, compensating for the
gaps caused by the absence of HD maps. Qualitative visualization results
demonstrate that our approach helps infer unseen map information.
- Abstract(参考訳): シーン情報は、交通エージェントの将来的な経路に関する意味的手がかりと制約を提供することで、自動運転の軌道予測システムにおいて重要な役割を果たす。
一般的な軌道予測技術は、入力の一部として高精細地図(HDマップ)を用いてシーン知識を提供する。
HDマップは正確な道路情報を提供するが、それらが広く使われることを制限する注釈や法律の制限のコストが高い。
したがって、これらの手法は、マップレスシナリオで信頼できる予測結果を生成することが期待されている。
本稿では,テスト期間中に地図情報が利用できない場合に,マルチモーダルな予測軌道の整合性と実道路トポロジの整合性を改善する問題に取り組む。
具体的には,アノテーション付きサンプル上でmap-based prediction teacher networkを訓練し,その知識を2倍の知識蒸留フレームワークを用いて学生のmapless prediction networkに転送する。
私たちのソリューションは、共通の軌道予測ネットワークで一般化可能であり、余分な計算負荷をもたらさない。
実験の結果,hdマップの欠如によるギャップを補うため,多種多様な最先端軌道予測ベースラインにおいてmaplessモードの予測性能を安定的に向上できることがわかった。
定性的可視化の結果,我々の手法は未発見の地図情報を推測するのに役立つことがわかった。
関連論文リスト
- Augmenting Lane Perception and Topology Understanding with Standard
Definition Navigation Maps [51.24861159115138]
Standard Definition (SD) マップは、より安価で、世界中でカバーでき、スケーラブルな代替手段を提供する。
本稿では,オンライン地図予測にSDマップを統合する新しいフレームワークを提案し,Transformer を用いたエンコーダ SD Map Representations を提案する。
この拡張は、現在の最先端のオンラインマップ予測手法におけるレーン検出とトポロジー予測を一貫して(最大60%まで)大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-07T15:42:22Z) - Transformer-Based Neural Surrogate for Link-Level Path Loss Prediction
from Variable-Sized Maps [11.327456466796681]
送信機と受信機の位置に対する経路損失の推定は、ネットワーク計画やハンドオーバを含む多くのユースケースにおいて重要である。
本稿では,様々な次元の地図やスパース測定からリンクレベルの特性を予測できるトランスフォーマーベースのニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-10-06T20:17:40Z) - Pre-training on Synthetic Driving Data for Trajectory Prediction [64.16991399882477]
我々は,データ可用性の制限の下で一般的な軌道予測表現を学習することの課題に取り組むことを目的としている。
我々はHD-mapのグラフ表現を利用し、ベクトル変換を適用して地図を再構成する。
我々は、拡張シーンに基づく軌道を生成するためにルールベースのモデルを用いる。
論文 参考訳(メタデータ) (2023-09-18T19:49:22Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - On the explainable properties of 1-Lipschitz Neural Networks: An Optimal
Transport Perspective [0.0]
従来のニューラルネットワークによって生成されたサリエンシマップは、しばしばノイズが多く、限られた洞察を提供する。
本稿では, 1-Lipschitz ニューラルネットワークのSaliency Maps が望ましいXAI特性を示すことを示す。
また、これらの地図は、ImageNet上の人間の説明と前例のないほどよく一致していることを示す。
論文 参考訳(メタデータ) (2022-06-14T13:49:08Z) - PreTraM: Self-Supervised Pre-training via Connecting Trajectory and Map [58.53373202647576]
軌道予測のための自己教師付き事前学習方式であるPreTraMを提案する。
1) トラジェクティブ・マップ・コントラクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)の2つのパートから構成される。
AgentFormerやTrajectron++といった一般的なベースラインに加えて、PreTraMは、挑戦的なnuScenesデータセット上で、FDE-10でパフォーマンスを5.5%と6.9%向上させる。
論文 参考訳(メタデータ) (2022-04-21T23:01:21Z) - End-to-End Trajectory Distribution Prediction Based on Occupancy Grid
Maps [29.67295706224478]
本稿では,実世界における移動エージェントの将来の軌跡分布を予測することを目的としている。
我々は、接地構造分布に対する明示的かつシーン順応的な近似として、占有格子マップを用いて対称的クロスエントロピーで分布を学習する。
実験では,Stanford Drone データセットとIntersection Drone データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-31T09:24:32Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - Motion Prediction using Trajectory Sets and Self-Driving Domain
Knowledge [3.0938904602244355]
我々は,オフロード予測をペナルティ化する補助的損失を加えることによって,動作予測に対する分類に基づくアプローチを構築した。
この補助損失は、地図情報のみを使用して容易に事前訓練でき、小さなデータセットの性能を大幅に向上させる。
最後のコントリビューションは、2つの公用自動運転データセットの分類と順序回帰の詳細な比較である。
論文 参考訳(メタデータ) (2020-06-08T17:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。