論文の概要: Indoor Future Person Localization from an Egocentric Wearable Camera
- arxiv url: http://arxiv.org/abs/2103.04019v1
- Date: Sat, 6 Mar 2021 03:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 16:03:33.437119
- Title: Indoor Future Person Localization from an Egocentric Wearable Camera
- Title(参考訳): エゴ中心型ウェアラブルカメラによる屋内人物位置推定
- Authors: Jianing Qiu, Frank P.-W. Lo, Xiao Gu, Yingnan Sun, Shuo Jiang, and
Benny Lo
- Abstract要約: エゴセントリックなウェアラブルカメラによる将来の人物の位置と移動軌跡の正確な予測は、幅広い用途に役立てることができる。
新しい自我中心のデータセットは、ターゲットの人の8,250の短いクリップで、ウェアラブルカメラを使用して構築されました。
LSTMに基づくエンコーダデコーダフレームワークは,対象者の将来の位置と移動軌跡を予測するために設計された。
- 参考スコア(独自算出の注目度): 15.608745543533814
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate prediction of future person location and movement trajectory from an
egocentric wearable camera can benefit a wide range of applications, such as
assisting visually impaired people in navigation, and the development of
mobility assistance for people with disability. In this work, a new egocentric
dataset was constructed using a wearable camera, with 8,250 short clips of a
targeted person either walking 1) toward, 2) away, or 3) across the camera
wearer in indoor environments, or 4) staying still in the scene, and 13,817
person bounding boxes were manually labelled. Apart from the bounding boxes,
the dataset also contains the estimated pose of the targeted person as well as
the IMU signal of the wearable camera at each time point. An LSTM-based
encoder-decoder framework was designed to predict the future location and
movement trajectory of the targeted person in this egocentric setting.
Extensive experiments have been conducted on the new dataset, and have shown
that the proposed method is able to reliably and better predict future person
location and trajectory in egocentric videos captured by the wearable camera
compared to three baselines.
- Abstract(参考訳): エゴセントリックなウェアラブルカメラによる将来の人物の位置と移動軌跡の正確な予測は、視覚障害者のナビゲーション支援や障害者のための移動支援の開発など、幅広い応用に役立てることができる。
本研究では,ウェアラブルカメラを用いて,対象者の8,250本のショートクリップを室内環境のカメラ装着者に対して,1,2,3方向に移動させたり,4)現場にとどまったり,13,817人のバウンディングボックスを手作業でラベル付けする,新たなエゴセントリックデータセットを構築した。
バウンディングボックスとは別に、データセットには、目標人物の推定ポーズだけでなく、各時点におけるウェアラブルカメラのIMU信号も含まれています。
LSTMベースのエンコーダデコーダフレームワークは、このエゴセントリックな設定で目標人物の将来の位置と移動軌道を予測するように設計されています。
提案手法は,3つのベースラインと比較して,ウェアラブルカメラが捉えたエゴセントリックなビデオにおいて,将来の人物の位置と軌跡を確実かつ確実に予測できることを示した。
関連論文リスト
- Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - TRACE: 5D Temporal Regression of Avatars with Dynamic Cameras in 3D
Environments [106.80978555346958]
現在の方法では、地球上の座標で動く人間を確実に推定することはできない。
TRACEは、ダイナミックカメラからグローバル座標における3D人間の共同回収と追跡を行う最初の1段階の手法である。
トラッキングとHPSベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-06-05T13:00:44Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Estimating Egocentric 3D Human Pose in the Wild with External Weak
Supervision [72.36132924512299]
本稿では,大規模な自己中心型データセットでトレーニング可能な,新たな自己中心型ポーズ推定手法を提案する。
本研究では,事前学習された外部視点のポーズ推定モデルにより抽出された高品質な特徴を用いて,エゴセントリックな特徴を監督する新しい学習戦略を提案する。
実験により,本手法は,1つの画像から正確な3Dポーズを予測し,定量的,定性的に,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-01-20T00:45:13Z) - Enhancing Egocentric 3D Pose Estimation with Third Person Views [37.9683439632693]
本研究では,1台のウェアラブルカメラから撮影した映像から計算した人物の3次元身振り推定を強化する新しい手法を提案する。
First2Third-Poseは、最初の視点と第三視点の両方から捉えた人間の活動を描いた2000近いビデオからなる、ペア化された新しい同期データセットである。
実験により,データセットを用いて学習した多視点埋め込み空間は,任意の単視点自我中心ビデオから識別的特徴を抽出するのに有用であることが示された。
論文 参考訳(メタデータ) (2022-01-06T11:42:01Z) - GLAMR: Global Occlusion-Aware Human Mesh Recovery with Dynamic Cameras [99.07219478953982]
ダイナミックカメラで記録したモノクロビデオから3次元グローバルなヒューマンメッシュリカバリのためのアプローチを提案する。
われわれはまず,視覚的動作に基づいて隠蔽されたヒトの身体運動を自己回帰的に埋め込む,深部再生運動充填装置を提案する。
従来の研究とは対照的に,我々の手法はダイナミックカメラを用いても,一貫したグローバル座標で人間のメッシュを再構築する。
論文 参考訳(メタデータ) (2021-12-02T18:59:54Z) - Egocentric Human Trajectory Forecasting with a Wearable Camera and
Multi-Modal Fusion [24.149925005674145]
混雑した空間における自我中心型カメラ装着者(自我者)の軌道予測の問題に対処する。
異なるカメラ装着者のデータから得られた軌道予測能力は、視覚障害者のナビゲーションを支援するために転送することができる。
トランスフォーマーをベースとしたエンコーダ・デコーダニューラルネットワークモデルが,カメラ装着者の将来の軌道を予測するために,新しいカスケード型クロスアテンション機構と統合されている。
論文 参考訳(メタデータ) (2021-11-01T14:58:05Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - When We First Met: Visual-Inertial Person Localization for Co-Robot
Rendezvous [29.922954461039698]
ウェアラブル慣性計測装置(IMU)によって測定された動きとビデオ中の人物の動きを容易に一致させることができる視覚慣性特徴空間の学習法を提案する。
提案手法は,IMUデータとビデオの5秒間のみを用いて,80.7%の精度で目標人物を正確に位置決めすることができる。
論文 参考訳(メタデータ) (2020-06-17T16:15:01Z) - Reconstruction of 3D flight trajectories from ad-hoc camera networks [19.96488566402593]
本研究では,空飛ぶロボットシステムの3次元軌道を,同期しないカメラで撮影した映像から再構成する手法を提案する。
我々のアプローチは、安価で容易に配備できる装置を用いて、動的に飛来する目標の堅牢かつ正確な外部からの追跡を可能にする。
論文 参考訳(メタデータ) (2020-03-10T14:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。