論文の概要: Out-of-Sight Trajectories: Tracking, Fusion, and Prediction
- arxiv url: http://arxiv.org/abs/2509.15219v1
- Date: Thu, 18 Sep 2025 17:59:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.396222
- Title: Out-of-Sight Trajectories: Tracking, Fusion, and Prediction
- Title(参考訳): 視界外軌道:追跡・核融合・予測
- Authors: Haichao Zhang, Yi Xu, Yun Fu,
- Abstract要約: 軌道予測はコンピュータビジョンと自律システムにおいて重要な課題である。
視外軌道(OST)の進歩について
OSTはノイズのない物体の視覚的軌跡をノイズの多いセンサデータを用いて予測する。
- 参考スコア(独自算出の注目度): 36.00803433085204
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Trajectory prediction is a critical task in computer vision and autonomous systems, playing a key role in autonomous driving, robotics, surveillance, and virtual reality. Existing methods often rely on complete and noise-free observational data, overlooking the challenges associated with out-of-sight objects and the inherent noise in sensor data caused by limited camera coverage, obstructions, and the absence of ground truth for denoised trajectories. These limitations pose safety risks and hinder reliable prediction in real-world scenarios. In this extended work, we present advancements in Out-of-Sight Trajectory (OST), a novel task that predicts the noise-free visual trajectories of out-of-sight objects using noisy sensor data. Building on our previous research, we broaden the scope of Out-of-Sight Trajectory Prediction (OOSTraj) to include pedestrians and vehicles, extending its applicability to autonomous driving, robotics, surveillance, and virtual reality. Our enhanced Vision-Positioning Denoising Module leverages camera calibration to establish a vision-positioning mapping, addressing the lack of visual references, while effectively denoising noisy sensor data in an unsupervised manner. Through extensive evaluations on the Vi-Fi and JRDB datasets, our approach achieves state-of-the-art performance in both trajectory denoising and prediction, significantly surpassing previous baselines. Additionally, we introduce comparisons with traditional denoising methods, such as Kalman filtering, and adapt recent trajectory prediction models to our task, providing a comprehensive benchmark. This work represents the first initiative to integrate vision-positioning projection for denoising noisy sensor trajectories of out-of-sight agents, paving the way for future advances. The code and preprocessed datasets are available at github.com/Hai-chao-Zhang/OST
- Abstract(参考訳): 軌道予測はコンピュータビジョンと自律システムにおいて重要なタスクであり、自律運転、ロボット工学、監視、仮想現実において重要な役割を果たしている。
既存の手法は、しばしば完全かつノイズのない観測データに依存しており、視界外物体や、限られたカメラカバレッジ、障害物、およびデノナイズド・トラジェクトリーに対する真実の欠如に起因するセンサーデータの固有のノイズに関する課題を見落としている。
これらの制限は安全性のリスクを生じさせ、現実のシナリオにおける信頼性の高い予測を妨げる。
この拡張作業では、ノイズの多いセンサデータを用いて、外界の物体のノイズのない視覚的軌跡を予測する新しいタスクである、外界軌道(OST)の進歩を示す。
これまでの研究に基づいて、歩行者や車両を含むOSTraj(Out-of-Sight Trajectory Prediction)の範囲を広げ、自動運転、ロボティクス、監視、バーチャルリアリティーへの適用範囲を広げた。
我々の拡張ビジョン・ポジショニング・デノナイジング・モジュールは、カメラキャリブレーションを活用し、視覚的参照の欠如に対処しつつ、教師なしの方法でノイズの多いセンサデータを効果的にデノナイジングする。
提案手法は, Vi-Fi と JRDB のデータセットを広範囲に評価することにより,従来のベースラインをはるかに上回り,軌跡認知と予測の両方において最先端の性能を実現する。
さらに,Kalmanフィルタなどの従来手法との比較を行い,最近の軌道予測モデルを我々のタスクに適用し,総合的なベンチマークを提供する。
この研究は、視覚提示プロジェクションを統合して、視覚外エージェントのノイズの多いセンサー軌跡を識別し、将来の進歩への道を開くための最初の取り組みである。
コードと事前処理されたデータセットはgithub.com/Hai-chao-Zhang/OSTで利用可能である。
関連論文リスト
- HEADS-UP: Head-Mounted Egocentric Dataset for Trajectory Prediction in Blind Assistance Systems [47.37573198723305]
HEADS-UPは、ヘッドマウントカメラから収集された最初のエゴセントリックなデータセットである。
視覚障害者と歩行者の衝突リスクを評価するための半局所軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-09-30T14:26:09Z) - DiffSSC: Semantic LiDAR Scan Completion using Denoising Diffusion Probabilistic Models [18.342569823885864]
3D LiDARセンサーは、車両の周囲の粗い点雲を捉えるために広く使われている。
このようなシステムは、これらの点雲の空白さと意味論の欠如により、隠蔽された領域と風景の隙間を知覚するのに苦労する。
我々は、より完全なシーン表現を目指して、生のLiDAR測定で得られたシーンにおける観測されていない幾何学と意味を共同で予測する。
我々は、自律運転データセットに対する我々のアプローチを評価し、SSCの最先端性能を達成し、既存のほとんどの手法を上回ります。
論文 参考訳(メタデータ) (2024-09-26T17:39:05Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking [84.38335117043907]
本研究では,リレー壁のみを観察することで,見えない部屋を歩いている人を追跡する純粋受動的手法を提案する。
本研究では,リレー壁の映像の非知覚的変化を発掘するため,時間的局所的な動きの伝達に欠かせない特徴として差分フレームを導入する。
提案手法を評価するため,最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
論文 参考訳(メタデータ) (2023-03-21T12:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。