論文の概要: T2FPV: Constructing High-Fidelity First-Person View Datasets From
Real-World Pedestrian Trajectories
- arxiv url: http://arxiv.org/abs/2209.11294v1
- Date: Thu, 22 Sep 2022 20:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 17:07:08.150002
- Title: T2FPV: Constructing High-Fidelity First-Person View Datasets From
Real-World Pedestrian Trajectories
- Title(参考訳): T2FPV: 現実世界の歩行者軌道から高忠実なファーストパーソンビューデータセットを構築する
- Authors: Benjamin Stoler, Meghdeep Jana, Soonmin Hwang, Jean Oh
- Abstract要約: 実世界のトップダウントラジェクトリ・データセットから高忠実度1人称ビュー・データセットを構築する方法T2FPVを提案する。
ETH/UCY歩行者データセットを用いて、対話する歩行者の自我中心の視覚データを生成する。
- 参考スコア(独自算出の注目度): 9.44806128120871
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Predicting pedestrian motion is essential for developing socially-aware
robots that interact in a crowded environment. While the natural visual
perspective for a social interaction setting is an egocentric view, the
majority of existing work in trajectory prediction has been investigated purely
in the top-down trajectory space. To support first-person view trajectory
prediction research, we present T2FPV, a method for constructing high-fidelity
first-person view datasets given a real-world, top-down trajectory dataset; we
showcase our approach on the ETH/UCY pedestrian dataset to generate the
egocentric visual data of all interacting pedestrians. We report that the
bird's-eye view assumption used in the original ETH/UCY dataset, i.e., an agent
can observe everyone in the scene with perfect information, does not hold in
the first-person views; only a fraction of agents are fully visible during each
20-timestep scene used commonly in existing work. We evaluate existing
trajectory prediction approaches under varying levels of realistic perception
-- displacement errors suffer a 356% increase compared to the top-down, perfect
information setting. To promote research in first-person view trajectory
prediction, we release our T2FPV-ETH dataset and software tools.
- Abstract(参考訳): 歩行者の動きを予測することは、混雑した環境で相互作用する社会的に認識されたロボットを開発するのに不可欠である。
社会的インタラクション設定の自然な視点はエゴセントリックな視点であるが、軌道予測における既存の作業の大部分は、トップダウン軌道空間において純粋に研究されている。
T2FPVは、実世界のトップダウントラジェクトリデータセットが与えられた高忠実なファーストパーソンビューデータセットを構築する方法であり、ETH/UCYの歩行者データセットを用いて、対話する歩行者の自我中心の視覚データを生成する。
筆者らは,ETH/UCYデータセットで使用される鳥眼ビューの仮定,すなわち,エージェントが現場の全員を完璧な情報で観察でき,一対一の視点では保持できないことを報告した。
実感レベルの異なる既存の軌道予測手法を評価したところ、変位誤差はトップダウンの完全情報設定に比べて356%増大した。
一人称視点軌跡予測の研究を促進するため,我々のT2FPV-ETHデータセットとソフトウェアツールをリリースする。
関連論文リスト
- HEADS-UP: Head-Mounted Egocentric Dataset for Trajectory Prediction in Blind Assistance Systems [47.37573198723305]
HEADS-UPは、ヘッドマウントカメラから収集された最初のエゴセントリックなデータセットである。
視覚障害者と歩行者の衝突リスクを評価するための半局所軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-09-30T14:26:09Z) - VisionTrap: Vision-Augmented Trajectory Prediction Guided by Textual Descriptions [10.748597086208145]
本研究では,サラウンドビューカメラからの視覚入力を取り入れた新しい手法を提案する。
提案手法は,53msのレイテンシを実現し,リアルタイム処理を実現する。
実験の結果,視覚入力とテキスト記述の両方が軌跡予測性能の向上に寄与していることがわかった。
論文 参考訳(メタデータ) (2024-07-17T06:39:52Z) - Vectorized Representation Dreamer (VRD): Dreaming-Assisted Multi-Agent Motion-Forecasting [2.2020053359163305]
マルチエージェント動作予測問題に対するベクトル化された世界モデルに基づくアプローチであるVRDを紹介する。
本手法では,従来のオープンループトレーニングシステムと,新しい夢のクローズループトレーニングパイプラインを組み合わせる。
本モデルでは,1つの予測ミスレート測定値に対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-20T15:34:17Z) - UnO: Unsupervised Occupancy Fields for Perception and Forecasting [33.205064287409094]
監督されたアプローチは、アノテートされたオブジェクトラベルを利用して世界のモデルを学ぶ。
我々は,LiDARデータから連続した4次元占有領域を自己監督して知覚し,予測することを学ぶ。
この教師なしの世界モデルは、タスクに簡単かつ効果的に転送できる。
論文 参考訳(メタデータ) (2024-06-12T23:22:23Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Learning Fine-grained View-Invariant Representations from Unpaired
Ego-Exo Videos via Temporal Alignment [71.16699226211504]
我々は,エゴセントリックな映像とエゴセントリックな映像を時間内に整列させることにより,視点に不変なきめ細かいアクション特徴を学習することを提案する。
そこで本研究では,2つの鍵設計を持つ自己教師型埋め込み手法であるAE2を提案する。
評価のために,エゴ・エクソ・コンテキストにおけるきめ細かい映像理解のためのベンチマークを構築した。
論文 参考訳(メタデータ) (2023-06-08T19:54:08Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction [24.855059537779294]
本稿では、新しいエンドツーエンド2段階ネットワーク:spatio--Interactive Network(STINet)を提案する。
歩行者の3次元形状に加えて,歩行者ごとの時間情報をモデル化する。
提案手法は,1段目における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクできるようにする。
論文 参考訳(メタデータ) (2020-05-08T18:43:01Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。