論文の概要: Equivariant Map and Agent Geometry for Autonomous Driving Motion Prediction
- arxiv url: http://arxiv.org/abs/2310.13922v2
- Date: Sat, 02 Aug 2025 21:00:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.499557
- Title: Equivariant Map and Agent Geometry for Autonomous Driving Motion Prediction
- Title(参考訳): 自律走行予測のための等変写像とエージェント幾何
- Authors: Yuping Wang, Jier Chen,
- Abstract要約: 本研究では、理論的に幾何学的同変であり、粒子と人間の相互作用不変な運動予測モデルであるEqMotionを用いて、画期的な解を提案する。
これらの技術を適用することで、軽量な設計と効率的なデータ利用を維持しながら、予測精度の高いモデルを実現することができる。
- 参考スコア(独自算出の注目度): 3.4679246185687544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In autonomous driving, deep learning enabled motion prediction is a popular topic. A critical gap in traditional motion prediction methodologies lies in ensuring equivariance under Euclidean geometric transformations and maintaining invariant interaction relationships. This research introduces a groundbreaking solution by employing EqMotion, a theoretically geometric equivariant and interaction invariant motion prediction model for particles and humans, plus integrating agent-equivariant high-definition (HD) map features for context aware motion prediction in autonomous driving. The use of EqMotion as backbone marks a significant departure from existing methods by rigorously ensuring motion equivariance and interaction invariance. Equivariance here implies that an output motion must be equally transformed under the same Euclidean transformation as an input motion, while interaction invariance preserves the manner in which agents interact despite transformations. These properties make the network robust to arbitrary Euclidean transformations and contribute to more accurate prediction. In addition, we introduce an equivariant method to process the HD map to enrich the spatial understanding of the network while preserving the overall network equivariance property. By applying these technologies, our model is able to achieve high prediction accuracy while maintain a lightweight design and efficient data utilization.
- Abstract(参考訳): 自律運転では、ディープラーニングによって実現された動き予測が一般的なトピックである。
伝統的な運動予測手法における重要なギャップは、ユークリッド幾何変換の下での同値性を確保し、不変な相互作用関係を維持することである。
本研究では, 粒子と人間に対する理論的に幾何学的同変および相互作用不変な運動予測モデルであるEqMotionと, 自律運転におけるコンテキスト認識動作予測のためのエージェント同変ハイデフィニション(HD)マップ機能を統合することにより, 画期的な解を提案する。
バックボーンとしてのEqMotionの使用は、動きの同値性と相互作用の不変性を厳格に保証することで、既存の方法から大きく離れている。
ここでの等分散は、出力運動は入力運動と同じユークリッド変換の下で等しく変換されなければならないことを意味し、一方相互作用不変性は変換にもかかわらずエージェントが相互作用する方法を保存する。
これらの性質により、ネットワークは任意のユークリッド変換に対して堅牢になり、より正確な予測に寄与する。
さらに,ネットワークの空間的理解を深めつつ,ネットワーク全体の等価性を保ちながら,HDマップを処理する同変法を提案する。
これらの技術を適用することで、軽量な設計と効率的なデータ利用を維持しつつ、予測精度の高いモデルを実現することができる。
関連論文リスト
- GTransPDM: A Graph-embedded Transformer with Positional Decoupling for Pedestrian Crossing Intention Prediction [6.327758022051579]
GTransPDMは多モード特徴を利用した歩行者横断意図予測のために開発された。
PIEデータセットでは92%の精度で、JAADデータセットでは87%の精度で処理速度は0.05msである。
論文 参考訳(メタデータ) (2024-09-30T12:02:17Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Spatial and social situation-aware transformer-based trajectory prediction of autonomous systems [2.498836880652668]
エージェントの振る舞いを所定の状況で予測するには、時間内に適切に反応する必要がある。
近年,深層学習に基づくモデルが動き予測の主流となっている。
より長い予測地平線の場合、予測軌道の地平線からの偏差は、空間的・社会的に非依存なモデルに比べて低い。
論文 参考訳(メタデータ) (2024-06-04T20:36:16Z) - Equivariant Spatio-Temporal Self-Supervision for LiDAR Object Detection [37.142470149311904]
本研究では,空間的および時間的拡張を両立させることにより,時間的同変学習の枠組みを提案する。
既存の等変および不変のアプローチを多くの設定で上回る3次元物体検出のための事前学習法を示す。
論文 参考訳(メタデータ) (2024-04-17T20:41:49Z) - Towards Generalizable and Interpretable Motion Prediction: A Deep
Variational Bayes Approach [54.429396802848224]
本稿では,分布外ケースに対する頑健な一般化性を有する動き予測のための解釈可能な生成モデルを提案する。
このモデルでは, 長期目的地の空間分布を推定することにより, 目標駆動動作予測を実現する。
動き予測データセットの実験は、適合したモデルが解釈可能で一般化可能であることを検証した。
論文 参考訳(メタデータ) (2024-03-10T04:16:04Z) - EqMotion: Equivariant Multi-agent Motion Prediction with Invariant
Interaction Reasoning [83.11657818251447]
不変相互作用推論を用いた効率的な同変運動予測モデルであるEqMotionを提案する。
提案モデルに対して,粒子動力学,分子動力学,人体骨格運動予測,歩行者軌道予測の4つの異なるシナリオで実験を行った。
提案手法は4つのタスクすべてに対して最先端の予測性能を実現し,24.0/30.1/8.6/9.2%改善した。
論文 参考訳(メタデータ) (2023-03-20T05:23:46Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Stochastic Trajectory Prediction via Motion Indeterminacy Diffusion [88.45326906116165]
運動不確定性拡散(MID)の逆過程として軌道予測タスクを定式化する新しい枠組みを提案する。
我々は,履歴行動情報と社会的相互作用を状態埋め込みとしてエンコードし,トランジトリの時間的依存性を捉えるためにトランスフォーマーに基づく拡散モデルを考案する。
スタンフォード・ドローンやETH/UCYデータセットなど,人間の軌道予測ベンチマーク実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-25T16:59:08Z) - Equivariant Deep Dynamical Model for Motion Prediction [0.0]
深層生成モデリングは、データの最も単純化され圧縮された基礎的な記述を見つけるための動的モデリングの強力なアプローチである。
ほとんどの学習タスクは固有の対称性を持ち、すなわち入力変換は出力をそのままにするか、出力が同様の変換を行う。
本稿では, 入力空間の構造的表現を, 対称性の変換とともに変化するという意味で学習する動き予測のためのSO(3)同変深部力学モデル(EqDDM)を提案する。
論文 参考訳(メタデータ) (2021-11-02T21:01:43Z) - SGCN:Sparse Graph Convolution Network for Pedestrian Trajectory
Prediction [64.16212996247943]
歩行者軌道予測のためのスパースグラフ畳み込みネットワーク(SGCN)を提案する。
具体的には、SGCNはスパース指向の相互作用をスパース指向の空間グラフと明確にモデル化し、適応的な相互作用歩行者を捉える。
可視化は,歩行者の適応的相互作用とその運動特性を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:17:42Z) - Trajectory Prediction using Equivariant Continuous Convolution [21.29323790182332]
軌道予測は、自動運転車の安全な運転など、多くのAIアプリケーションにおいて重要な部分である。
我々は、軌道予測を改善するための新しいモデル、Equivariant Continous Convolution (ECCO)を提案する。
車両と歩行者の軌跡データセットの両方において、ECCOは極めて少ないパラメータで競争精度を達成している。
論文 参考訳(メタデータ) (2020-10-21T23:18:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。