論文の概要: GUIDE-CoT: Goal-driven and User-Informed Dynamic Estimation for Pedestrian Trajectory using Chain-of-Thought
- arxiv url: http://arxiv.org/abs/2503.06832v1
- Date: Mon, 10 Mar 2025 01:39:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:48:26.963844
- Title: GUIDE-CoT: Goal-driven and User-Informed Dynamic Estimation for Pedestrian Trajectory using Chain-of-Thought
- Title(参考訳): GUIDE-CoT:Chain-of-Thoughtを用いた歩行者軌道のゴール駆動およびユーザインフォームド動的推定
- Authors: Sungsik Kim, Janghyun Baek, Jinkyu Kim, Jaekoo Lee,
- Abstract要約: GUIDE-CoT (Chain-of-Thought) を用いた歩行者軌跡のゴール駆動およびユーザインフォームド動的推定法を提案する。
提案手法は,(1)視覚的プロンプトと事前学習された視覚的エンコーダを組み合わせた目標予測精度を向上する目標指向視覚プロンプト,(2)軌道生成のためのチェーン・オブ・シント(CoT)LLM,の2つのイノベーティブなモジュールを統合する。
提案手法は,歩行者軌道予測における精度と適応性を両立させ,最先端性能を実現する。
- 参考スコア(独自算出の注目度): 9.572859785331307
- License:
- Abstract: While Large Language Models (LLMs) have recently shown impressive results in reasoning tasks, their application to pedestrian trajectory prediction remains challenging due to two key limitations: insufficient use of visual information and the difficulty of predicting entire trajectories. To address these challenges, we propose Goal-driven and User-Informed Dynamic Estimation for pedestrian trajectory using Chain-of-Thought (GUIDE-CoT). Our approach integrates two innovative modules: (1) a goal-oriented visual prompt, which enhances goal prediction accuracy combining visual prompts with a pretrained visual encoder, and (2) a chain-of-thought (CoT) LLM for trajectory generation, which generates realistic trajectories toward the predicted goal. Moreover, our method introduces controllable trajectory generation, allowing for flexible and user-guided modifications to the predicted paths. Through extensive experiments on the ETH/UCY benchmark datasets, our method achieves state-of-the-art performance, delivering both high accuracy and greater adaptability in pedestrian trajectory prediction. Our code is publicly available at https://github.com/ai-kmu/GUIDE-CoT.
- Abstract(参考訳): 大規模言語モデル(LLM)は近年、推論タスクにおいて顕著な結果を示しているが、歩行者軌跡予測への応用は、視覚情報の不十分な使用と全軌跡の予測の困難という2つの重要な制限のために、依然として困難である。
これらの課題に対処するために,GUIDE-CoT (Chain-of-Thought) を用いた歩行者軌道のゴール駆動およびユーザインフォームド動的推定を提案する。
提案手法は,(1)視覚的プロンプトと事前学習された視覚的エンコーダを組み合わせた目標予測精度を向上する目標指向視覚プロンプト,(2)軌道生成のためのチェーン・オブ・シント(CoT)LLM,の2つのイノベーティブなモジュールを統合する。
さらに,制御可能なトラジェクトリ生成を導入し,予測経路に対するフレキシブルかつユーザガイドによる修正を可能にする。
ETH/UCYベンチマークデータセットの広範な実験を通じて,提案手法は,歩行者軌道予測における精度と適応性を両立し,最先端の性能を実現する。
私たちのコードはhttps://github.com/ai-kmu/GUIDE-CoT.comで公開されています。
関連論文リスト
- Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Certified Human Trajectory Prediction [66.1736456453465]
交通予知は自動運転車に不可欠な役割を担っている。
本稿では,軌道予測作業に適した認証手法を提案する。
非有界出力や変異モダリティを含む、軌道予測に関連する固有の課題に対処する。
論文 参考訳(メタデータ) (2024-03-20T17:41:35Z) - LG-Traj: LLM Guided Pedestrian Trajectory Prediction [9.385936248154987]
LG-Trajは歩行者の過去・保存軌道に現れる動きの手がかりを生成する新しい手法である。
これらの動きの手がかりは、歩行者の座標とともに、下層の表現をよりよく理解するのに役立つ。
本手法では,移動パターンをモデル化するモーションエンコーダと,歩行者間の社会的相互作用を捉えるソーシャルデコーダからなるトランスフォーマーアーキテクチャを用いる。
論文 参考訳(メタデータ) (2024-03-12T19:06:23Z) - Pre-training on Synthetic Driving Data for Trajectory Prediction [61.520225216107306]
軌道予測におけるデータ不足の問題を緩和するパイプラインレベルのソリューションを提案する。
我々は、駆動データを生成するためにHDマップ拡張とトラジェクトリ合成を採用し、それらを事前学習することで表現を学習する。
我々は、データ拡張と事前学習戦略の有効性を実証するための広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-18T19:49:22Z) - Towards Unified Token Learning for Vision-Language Tracking [65.96561538356315]
本稿では,VL追跡をトークン生成タスクとして用いた「textbfMMTrack」という,視覚言語(VL)追跡パイプラインを提案する。
提案フレームワークは,言語記述と境界ボックスを離散トークン列にシリアライズする。
この新しい設計パラダイムでは、全てのトークンクエリが望ましいターゲットを認識し、ターゲットの空間座標を直接予測するために必要となる。
論文 参考訳(メタデータ) (2023-08-27T13:17:34Z) - An End-to-End Framework of Road User Detection, Tracking, and Prediction
from Monocular Images [11.733622044569486]
我々はODTPと呼ばれる検出、追跡、軌道予測のためのエンドツーエンドのフレームワークを構築している。
検出結果に基づいて、トラジェクトリ予測器であるDCENet++を認識および訓練するために、最先端のオンラインマルチオブジェクト追跡モデルであるQD-3DTを採用している。
本研究では,自律運転に広く利用されているnuScenesデータセット上でのODTPの性能を評価する。
論文 参考訳(メタデータ) (2023-08-09T15:46:25Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z) - TAE: A Semi-supervised Controllable Behavior-aware Trajectory Generator
and Predictor [3.6955256596550137]
軌道生成と予測は、知的車両のプランナー評価と意思決定において重要な役割を果たす。
本稿では,ドライバの動作を明示的にモデル化する行動認識型トラジェクトリ・オートエンコーダ(TAE)を提案する。
我々のモデルは、統一アーキテクチャにおける軌道生成と予測に対処し、両方のタスクに利益をもたらす。
論文 参考訳(メタデータ) (2022-03-02T17:37:44Z) - Trajectory Prediction with Graph-based Dual-scale Context Fusion [43.51107329748957]
本稿では,Dual Scale Predictorというグラフベースの軌道予測ネットワークを提案する。
静的および動的駆動コンテキストを階層的にエンコードする。
提案したデュアルスケールコンテキスト融合ネットワークにより、DSPは正確で人間らしいマルチモーダル軌道を生成することができる。
論文 参考訳(メタデータ) (2021-11-02T13:42:16Z) - DenseTNT: End-to-end Trajectory Prediction from Dense Goal Sets [29.239524389784606]
DenseTNTと呼ばれるアンカーフリーかつエンドツーエンドの軌道予測モデルを提案し、高密度な目標候補から一連の軌道を直接出力する。
DenseTNTは最先端のパフォーマンスを達成し、Argoverseのモーション予測ベンチマークで1位、2021年のオープンモーション予測チャレンジで1位を獲得した。
論文 参考訳(メタデータ) (2021-08-22T05:27:35Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。