論文の概要: DECODE: Domain-aware Continual Domain Expansion for Motion Prediction
- arxiv url: http://arxiv.org/abs/2411.17917v1
- Date: Tue, 26 Nov 2024 22:20:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:25:37.283124
- Title: DECODE: Domain-aware Continual Domain Expansion for Motion Prediction
- Title(参考訳): DECODE: 動作予測のためのドメイン対応連続ドメイン拡張
- Authors: Boqi Li, Haojie Zhu, Henry X. Liu,
- Abstract要約: 動作予測のための新しい連続学習フレームワークであるDECODEを紹介する。
専門化と一般化のバランスをとり、リアルタイムの要求に合わせて動的に調整する。
保存率は0.044で平均0.584mである。
- 参考スコア(独自算出の注目度): 10.479509360064219
- License:
- Abstract: Motion prediction is critical for autonomous vehicles to effectively navigate complex environments and accurately anticipate the behaviors of other traffic participants. As autonomous driving continues to evolve, the need to assimilate new and varied driving scenarios necessitates frequent model updates through retraining. To address these demands, we introduce DECODE, a novel continual learning framework that begins with a pre-trained generalized model and incrementally develops specialized models for distinct domains. Unlike existing continual learning approaches that attempt to develop a unified model capable of generalizing across diverse scenarios, DECODE uniquely balances specialization with generalization, dynamically adjusting to real-time demands. The proposed framework leverages a hypernetwork to generate model parameters, significantly reducing storage requirements, and incorporates a normalizing flow mechanism for real-time model selection based on likelihood estimation. Furthermore, DECODE merges outputs from the most relevant specialized and generalized models using deep Bayesian uncertainty estimation techniques. This integration ensures optimal performance in familiar conditions while maintaining robustness in unfamiliar scenarios. Extensive evaluations confirm the effectiveness of the framework, achieving a notably low forgetting rate of 0.044 and an average minADE of 0.584 m, significantly surpassing traditional learning strategies and demonstrating adaptability across a wide range of driving conditions.
- Abstract(参考訳): 運動予測は、自動運転車が複雑な環境を効果的にナビゲートし、他の交通参加者の行動を正確に予測する上で重要である。
自律運転が進化を続けるにつれて、新しいさまざまな運転シナリオを同化する必要があるため、再トレーニングを通じて頻繁なモデル更新が必要になる。
これらの要求に対処するため、DECODEは、事前訓練された一般化モデルから始まり、異なるドメインの特殊モデルを漸進的に開発する、新しい連続学習フレームワークである。
多様なシナリオをまたいだ一般化が可能な統一モデルの開発を試みる既存の継続学習アプローチとは異なり、DECODEは特殊化と一般化のバランスを取り、リアルタイムの要求に動的に適応する。
提案フレームワークは,ハイパーネットワークを利用してモデルパラメータを生成し,ストレージ要求を大幅に低減し,仮説推定に基づくリアルタイムモデル選択のための正規化フロー機構を組み込んだ。
さらに、DeCODEは、ディープベイズの不確実性推定手法を用いて、最も関連性の高い特殊および一般化されたモデルから出力をマージする。
この統合により、馴染みのないシナリオで堅牢性を維持しながら、馴染みのある条件下での最適なパフォーマンスが保証される。
網羅的な評価により, 枠組みの有効性が確認され, 約0.044m, 平均約0.584m, 従来の学習戦略をはるかに上回り, 幅広い運転条件で適応性を示した。
関連論文リスト
- Characterized Diffusion Networks for Enhanced Autonomous Driving Trajectory Prediction [0.6202955567445396]
本稿では,自律走行のための新しい軌道予測モデルを提案する。
本モデルは,不確実性推定と複雑なエージェント相互作用を組み込むことにより,軌道予測の精度と信頼性を向上させる。
提案モデルでは,実環境における自律走行システムへの応用の可能性を示す。
論文 参考訳(メタデータ) (2024-11-25T15:03:44Z) - A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - Adaptive Prediction Ensemble: Improving Out-of-Distribution Generalization of Motion Forecasting [15.916325272109454]
本稿では,ディープラーニングとルールに基づく予測専門家を統合した新しいフレームワーク,Adaptive Prediction Ensemble (APE)を提案する。
ディープラーニングモデルと並行して訓練された学習ルーティング関数は、入力シナリオに基づいて、最も信頼性の高い予測を動的に選択する。
この研究は、自律運転における頑健で一般化可能な運動予測のためのハイブリッドアプローチの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-12T17:57:00Z) - Tractable Joint Prediction and Planning over Discrete Behavior Modes for
Urban Driving [15.671811785579118]
自己回帰閉ループモデルのパラメータ化は,再学習を伴わずに可能であることを示す。
離散潜在モード上での完全反応性閉ループ計画を提案する。
当社のアプローチは、CARLAにおける従来の最先端技術よりも、高密度なトラフィックシナリオに挑戦する上で優れています。
論文 参考訳(メタデータ) (2024-03-12T01:00:52Z) - Towards Generalizable and Interpretable Motion Prediction: A Deep
Variational Bayes Approach [54.429396802848224]
本稿では,分布外ケースに対する頑健な一般化性を有する動き予測のための解釈可能な生成モデルを提案する。
このモデルでは, 長期目的地の空間分布を推定することにより, 目標駆動動作予測を実現する。
動き予測データセットの実験は、適合したモデルが解釈可能で一般化可能であることを検証した。
論文 参考訳(メタデータ) (2024-03-10T04:16:04Z) - An Adaptive Framework for Generalizing Network Traffic Prediction
towards Uncertain Environments [51.99765487172328]
我々は,モバイルネットワークトラフィック予測モデルを動的に割り当てるための時系列解析を用いた新しいフレームワークを開発した。
我々のフレームワークは学習した振る舞いを採用しており、現在の研究と比較して50%以上の改善が得られ、どのモデルよりも優れています。
論文 参考訳(メタデータ) (2023-11-30T18:58:38Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Causal-based Time Series Domain Generalization for Vehicle Intention
Prediction [19.944268567657307]
交通参加者の行動の正確な予測は、自動運転車にとって必須の能力である。
本稿では,車両意図予測タスクにおける領域一般化問題に対処することを目的とする。
提案手法は、他の最先端領域の一般化や振る舞い予測手法と比較して、予測精度を一貫して改善する。
論文 参考訳(メタデータ) (2021-12-03T18:58:07Z) - Autoregressive Dynamics Models for Offline Policy Evaluation and
Optimization [60.73540999409032]
表現的自己回帰ダイナミクスモデルが次の状態の異なる次元を生成し、以前の次元で順次条件付きで報酬を得ることを示す。
また,リプレイバッファを充実させる手段として,自己回帰的ダイナミクスモデルがオフラインポリシー最適化に有用であることを示す。
論文 参考訳(メタデータ) (2021-04-28T16:48:44Z) - Trajectory-wise Multiple Choice Learning for Dynamics Generalization in
Reinforcement Learning [137.39196753245105]
本稿では,動的一般化のためのマルチヘッドダイナミックスモデルを学習するモデルベース強化学習アルゴリズムを提案する。
文脈学習は,過去の経験から得られる動的情報からコンテキスト潜在ベクトルにエンコードする。
提案手法は,最先端のRL法と比較して,様々な制御タスクにおいて優れたゼロショット一般化性能を示す。
論文 参考訳(メタデータ) (2020-10-26T03:20:42Z) - Goal-Directed Planning for Habituated Agents by Active Inference Using a
Variational Recurrent Neural Network [5.000272778136268]
本研究では, 予測符号化(PC)とアクティブ推論(AIF)フレームワークが, 低次元潜在状態空間における事前分布を学習することにより, より優れた一般化を実現できることを示す。
提案モデルでは, 最適潜伏変数を推定し, 実験結果の最小化のためのシナプス重みを推定することにより学習を行う。
提案手法は,シミュレーションにおけるロボットタスクと複雑なロボットタスクの両方を用いて評価し,限られた学習データを用いた学習における十分な一般化を実証した。
論文 参考訳(メタデータ) (2020-05-27T06:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。