論文の概要: OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising
- arxiv url: http://arxiv.org/abs/2404.02227v1
- Date: Tue, 2 Apr 2024 18:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 19:38:40.474219
- Title: OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising
- Title(参考訳): OOSTraj:視覚刺激による視線外軌道予測
- Authors: Haichao Zhang, Yi Xu, Hongsheng Lu, Takayuki Shimizu, Yun Fu,
- Abstract要約: 軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
- 参考スコア(独自算出の注目度): 49.86409475232849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trajectory prediction is fundamental in computer vision and autonomous driving, particularly for understanding pedestrian behavior and enabling proactive decision-making. Existing approaches in this field often assume precise and complete observational data, neglecting the challenges associated with out-of-view objects and the noise inherent in sensor data due to limited camera range, physical obstructions, and the absence of ground truth for denoised sensor data. Such oversights are critical safety concerns, as they can result in missing essential, non-visible objects. To bridge this gap, we present a novel method for out-of-sight trajectory prediction that leverages a vision-positioning technique. Our approach denoises noisy sensor observations in an unsupervised manner and precisely maps sensor-based trajectories of out-of-sight objects into visual trajectories. This method has demonstrated state-of-the-art performance in out-of-sight noisy sensor trajectory denoising and prediction on the Vi-Fi and JRDB datasets. By enhancing trajectory prediction accuracy and addressing the challenges of out-of-sight objects, our work significantly contributes to improving the safety and reliability of autonomous driving in complex environments. Our work represents the first initiative towards Out-Of-Sight Trajectory prediction (OOSTraj), setting a new benchmark for future research. The code is available at \url{https://github.com/Hai-chao-Zhang/OOSTraj}.
- Abstract(参考訳): 軌道予測は、特に歩行者の行動を理解し、積極的な意思決定を可能にするために、コンピュータビジョンと自律運転において基本的なものである。
この分野での既存のアプローチは、しばしば正確な観測データと完全な観測データを前提としており、視野外オブジェクトと、限られたカメラ範囲、物理的障害物、およびデノナイズドセンサーデータに対する真実の欠如によるセンサデータに固有のノイズを無視する。
このような監視は重要な安全上の問題であり、必須で目に見えない物体が欠落する可能性がある。
このギャップを埋めるために,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
提案手法は、教師なしの方法でノイズを検知し、視界外物体のセンサに基づく軌跡を正確に視覚的軌跡にマッピングする。
この手法は,Vi-Fi と JRDB のデータセット上でのノイズの多いセンサ軌道のデノゲーションと予測において,最先端の性能を実証した。
軌道予測の精度を向上し、視界外物体の課題に対処することにより、複雑な環境での自動運転の安全性と信頼性の向上に大きく貢献する。
我々の研究は、Of-Of-Sight Trajectory Prediction (OOSTraj) に向けた最初の取り組みであり、将来の研究のための新しいベンチマークを設定します。
コードは \url{https://github.com/Hai-chao-Zhang/OOSTraj} で公開されている。
関連論文リスト
- Navigation under uncertainty: Trajectory prediction and occlusion reasoning with switching dynamical systems [36.18758962312406]
構造的確率的生成モデルに基づく軌道予測とオクルージョン推論を統一する概念的枠組みを提案する。
次に、オープンデータセットを使用して、その能力を示すいくつかの初期実験を示す。
論文 参考訳(メタデータ) (2024-10-14T16:03:41Z) - HEADS-UP: Head-Mounted Egocentric Dataset for Trajectory Prediction in Blind Assistance Systems [47.37573198723305]
HEADS-UPは、ヘッドマウントカメラから収集された最初のエゴセントリックなデータセットである。
視覚障害者と歩行者の衝突リスクを評価するための半局所軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-09-30T14:26:09Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Trajectory Forecasting from Detection with Uncertainty-Aware Motion
Encoding [121.66374635092097]
物体検出と追跡から得られる軌道は、必然的にうるさい。
本稿では, 明示的に形成された軌道に依存することなく, 直接検出結果に基づく軌道予測器を提案する。
論文 参考訳(メタデータ) (2022-02-03T09:09:56Z) - Uncertainty-Aware Vehicle Orientation Estimation for Joint
Detection-Prediction Models [12.56249869551208]
オリエンテーションは、自律システムの下流モジュールにとって重要な特性である。
本稿では,既存のモデルを拡張し,共同物体検出と動き予測を行う手法を提案する。
さらに、この手法は予測の不確かさを定量化することができ、推定された向きが反転する確率を出力することができる。
論文 参考訳(メタデータ) (2020-11-05T21:59:44Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。