論文の概要: OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising
- arxiv url: http://arxiv.org/abs/2404.02227v1
- Date: Tue, 2 Apr 2024 18:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 19:38:40.474219
- Title: OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising
- Title(参考訳): OOSTraj:視覚刺激による視線外軌道予測
- Authors: Haichao Zhang, Yi Xu, Hongsheng Lu, Takayuki Shimizu, Yun Fu,
- Abstract要約: 軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
- 参考スコア(独自算出の注目度): 49.86409475232849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trajectory prediction is fundamental in computer vision and autonomous driving, particularly for understanding pedestrian behavior and enabling proactive decision-making. Existing approaches in this field often assume precise and complete observational data, neglecting the challenges associated with out-of-view objects and the noise inherent in sensor data due to limited camera range, physical obstructions, and the absence of ground truth for denoised sensor data. Such oversights are critical safety concerns, as they can result in missing essential, non-visible objects. To bridge this gap, we present a novel method for out-of-sight trajectory prediction that leverages a vision-positioning technique. Our approach denoises noisy sensor observations in an unsupervised manner and precisely maps sensor-based trajectories of out-of-sight objects into visual trajectories. This method has demonstrated state-of-the-art performance in out-of-sight noisy sensor trajectory denoising and prediction on the Vi-Fi and JRDB datasets. By enhancing trajectory prediction accuracy and addressing the challenges of out-of-sight objects, our work significantly contributes to improving the safety and reliability of autonomous driving in complex environments. Our work represents the first initiative towards Out-Of-Sight Trajectory prediction (OOSTraj), setting a new benchmark for future research. The code is available at \url{https://github.com/Hai-chao-Zhang/OOSTraj}.
- Abstract(参考訳): 軌道予測は、特に歩行者の行動を理解し、積極的な意思決定を可能にするために、コンピュータビジョンと自律運転において基本的なものである。
この分野での既存のアプローチは、しばしば正確な観測データと完全な観測データを前提としており、視野外オブジェクトと、限られたカメラ範囲、物理的障害物、およびデノナイズドセンサーデータに対する真実の欠如によるセンサデータに固有のノイズを無視する。
このような監視は重要な安全上の問題であり、必須で目に見えない物体が欠落する可能性がある。
このギャップを埋めるために,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
提案手法は、教師なしの方法でノイズを検知し、視界外物体のセンサに基づく軌跡を正確に視覚的軌跡にマッピングする。
この手法は,Vi-Fi と JRDB のデータセット上でのノイズの多いセンサ軌道のデノゲーションと予測において,最先端の性能を実証した。
軌道予測の精度を向上し、視界外物体の課題に対処することにより、複雑な環境での自動運転の安全性と信頼性の向上に大きく貢献する。
我々の研究は、Of-Of-Sight Trajectory Prediction (OOSTraj) に向けた最初の取り組みであり、将来の研究のための新しいベンチマークを設定します。
コードは \url{https://github.com/Hai-chao-Zhang/OOSTraj} で公開されている。
関連論文リスト
- Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - Leveraging Trajectory Prediction for Pedestrian Video Anomaly Detection [14.740178121212132]
本稿では,未監視歩行者異常事象検出における軌跡の局所化と予測の活用を提案する。
提案手法は,正常および異常な歩行者軌跡の予測誤差を利用して,空間的・時間的に異常を検出する。
実時間スケールの異なる実世界のベンチマークデータセットについて実験を行い,提案したトラジェクトリ予測に基づく異常検出パイプラインが効率的かつ効率的であることを示す。
論文 参考訳(メタデータ) (2022-07-05T19:44:34Z) - Trajectory Forecasting from Detection with Uncertainty-Aware Motion
Encoding [121.66374635092097]
物体検出と追跡から得られる軌道は、必然的にうるさい。
本稿では, 明示的に形成された軌道に依存することなく, 直接検出結果に基づく軌道予測器を提案する。
論文 参考訳(メタデータ) (2022-02-03T09:09:56Z) - Uncertainty-Aware Vehicle Orientation Estimation for Joint
Detection-Prediction Models [12.56249869551208]
オリエンテーションは、自律システムの下流モジュールにとって重要な特性である。
本稿では,既存のモデルを拡張し,共同物体検出と動き予測を行う手法を提案する。
さらに、この手法は予測の不確かさを定量化することができ、推定された向きが反転する確率を出力することができる。
論文 参考訳(メタデータ) (2020-11-05T21:59:44Z) - Data-Driven Distributed State Estimation and Behavior Modeling in Sensor
Networks [5.817715558396024]
センサネットワークにおける状態推定と行動学習の同時学習の問題を定式化する。
本稿では,ガウス過程に基づくベイズフィルタ(GP-BayesFilters)をオンライン分散環境に拡張することで,シンプルで効果的な解を提案する。
提案手法の有効性は,マルチロボットプラットフォームから収集した合成データとデータの両方を用いて,未知の動作行動を持つ物体の追跡に評価される。
論文 参考訳(メタデータ) (2020-09-22T21:31:18Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。