論文の概要: View Birdification in the Crowd: Ground-Plane Localization from
Perceived Movements
- arxiv url: http://arxiv.org/abs/2111.05060v1
- Date: Tue, 9 Nov 2021 11:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:04:19.277477
- Title: View Birdification in the Crowd: Ground-Plane Localization from
Perceived Movements
- Title(参考訳): 群集の鳥化 : 知覚運動による地平面の局在
- Authors: Mai Nishimura, Shohei Nobuhara, Ko Nishino
- Abstract要約: 本研究では,エゴ中心のビデオから観衆の地平面運動を復元する問題であるビューバード化を導入する。
この手法はまず観察者の動きを推定し、次に周囲の歩行者をフレームごとに位置決めする。
提案手法の有効性を評価するため,3つのデータセットを導入し,提案手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 18.74084481018641
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce view birdification, the problem of recovering ground-plane
movements of people in a crowd from an ego-centric video captured from an
observer (e.g., a person or a vehicle) also moving in the crowd. Recovered
ground-plane movements would provide a sound basis for situational
understanding and benefit downstream applications in computer vision and
robotics. In this paper, we formulate view birdification as a geometric
trajectory reconstruction problem and derive a cascaded optimization method
from a Bayesian perspective. The method first estimates the observer's movement
and then localizes surrounding pedestrians for each frame while taking into
account the local interactions between them. We introduce three datasets by
leveraging synthetic and real trajectories of people in crowds and evaluate the
effectiveness of our method. The results demonstrate the accuracy of our method
and set the ground for further studies of view birdification as an important
but challenging visual understanding problem.
- Abstract(参考訳): 観察者(例えば、人間や乗り物)から撮影されたエゴ中心のビデオから、群集内の人々の地上面の動きを復元する問題であるビューバードフィケーションを紹介する。
回収された地上機の動きは、コンピュータビジョンやロボット工学における状況理解と下流の応用のための健全な基礎を提供する。
本稿では,鳥化を幾何学的軌道再構成問題として定式化し,ベイズ的視点からカスケード最適化法を導出する。
この手法はまず観測者の動きを推定し、その間の局所的な相互作用を考慮して周囲の歩行者を各フレームに配置する。
提案手法の有効性を評価するため,3つのデータセットを導入し,提案手法の有効性を検証した。
その結果,本手法の精度を実証し,ビューバード化のさらなる研究を重要かつ困難な視覚的理解問題として位置づけた。
関連論文リスト
- EgoNav: Egocentric Scene-aware Human Trajectory Prediction [15.346096596482857]
ウェアラブルなコラボレーティブロボットは、転倒防止支援を必要とする人や、外骨格を装着する人を助ける。
このようなロボットは、自我中心の視覚に基づいて周囲のシーンに常に適応し、着用者の自我の動きを予測する必要がある。
本研究では、身体に装着したカメラとセンサーを利用して、複雑な環境下での人間の着用者の軌道を予測した。
論文 参考訳(メタデータ) (2024-03-27T21:43:12Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - ViewBirdiformer: Learning to recover ground-plane crowd trajectories and
ego-motion from a single ego-centric view [28.54213112712818]
本研究では,観察された自我中心の映像から,群集の歩行者とその観察者の地上平面軌道を復元する新たな鳥化学習手法を提案する。
静的な背景が見えにくく、確実に追跡できない密集した群集において、ビューバード化は移動ロボットのナビゲーションや位置決めに欠かせないものとなっている。
本研究では,観衆の移動を自己注意で暗黙的にモデル化し,観衆とカメラの地上平面軌道に相対的な2次元運動観測を分解するViewBirdiformerと呼ばれるトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-12T15:53:04Z) - T2FPV: Constructing High-Fidelity First-Person View Datasets From
Real-World Pedestrian Trajectories [9.44806128120871]
実世界のトップダウントラジェクトリ・データセットから高忠実度1人称ビュー・データセットを構築する方法T2FPVを提案する。
ETH/UCY歩行者データセットを用いて、対話する歩行者の自我中心の視覚データを生成する。
論文 参考訳(メタデータ) (2022-09-22T20:14:43Z) - Progressive Self-Distillation for Ground-to-Aerial Perception Knowledge
Transfer [28.214084837466025]
我々は、ドローンが飛行高度の異なる環境でどのように認識できるかという、現実的な問題はまだ検討されていない。
現在の半教師あり学習法は視点差では有効ではない。
本研究では、地上視点のラベル付きデータと飛行視点のラベル付きデータのみを用いて、ドローンの認識を可能にするプログレッシブ半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-29T07:30:35Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。