論文の概要: Perceiving Humans: from Monocular 3D Localization to Social Distancing
- arxiv url: http://arxiv.org/abs/2009.00984v2
- Date: Wed, 24 Mar 2021 10:30:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:37:27.284516
- Title: Perceiving Humans: from Monocular 3D Localization to Social Distancing
- Title(参考訳): 人間を知覚する: 単眼の3次元局在からソーシャルディスタンシングへ
- Authors: Lorenzo Bertoni, Sven Kreiss, Alexandre Alahi
- Abstract要約: 本稿では,人間の3次元位置と身体の向きを1つの画像から知覚する,コスト効率の高い視覚ベースの新しい手法を提案する。
我々は,「社会的距離」という概念を,単純な位置に基づくルールとは対照的に,社会的相互作用の一形態として再考することが可能であることを示す。
- 参考スコア(独自算出の注目度): 93.03056743850141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perceiving humans in the context of Intelligent Transportation Systems (ITS)
often relies on multiple cameras or expensive LiDAR sensors. In this work, we
present a new cost-effective vision-based method that perceives humans'
locations in 3D and their body orientation from a single image. We address the
challenges related to the ill-posed monocular 3D tasks by proposing a neural
network architecture that predicts confidence intervals in contrast to point
estimates. Our neural network estimates human 3D body locations and their
orientation with a measure of uncertainty. Our proposed solution (i) is
privacy-safe, (ii) works with any fixed or moving cameras, and (iii) does not
rely on ground plane estimation. We demonstrate the performance of our method
with respect to three applications: locating humans in 3D, detecting social
interactions, and verifying the compliance of recent safety measures due to the
COVID-19 outbreak. We show that it is possible to rethink the concept of
"social distancing" as a form of social interaction in contrast to a simple
location-based rule. We publicly share the source code towards an open science
mission.
- Abstract(参考訳): インテリジェントトランスポーテーションシステム(ITS)の文脈で人間を知覚することは、しばしば複数のカメラや高価なLiDARセンサーに依存する。
本研究では,人間の3次元位置と身体の向きを1つの画像から知覚する,コスト効率の高い視覚ベース手法を提案する。
ポイント推定とは対照的に信頼区間を予測するニューラルネットワークアーキテクチャを提案することで,不適切な3dタスクに関連する課題に対処する。
我々のニューラルネットワークは、不確実性の尺度で人間の3D体の位置と向きを推定する。
提案する解決策
(i)プライバシーは安全である。
(ii)どの固定カメラや移動式カメラでも動作し、
(iii)地上面の推定に依存しない。
本稿では,3 つの応用について,ヒトの3 次元位置推定,社会的相互作用の検出,最近の新型コロナウイルス感染拡大による安全対策の遵守の検証を行った。
単純な位置に基づくルールとは対照的に,社会的相互作用の一形態として「社会的距離」の概念を再考することは可能であることを示す。
オープンサイエンスミッションに向けたソースコードを公開しています。
関連論文リスト
- Social EgoMesh Estimation [7.021561988248192]
身体の社会中心性評価のための新しい枠組み(SEE-ME)を提案する。
我々のアプローチは、潜在確率拡散モデルのみを用いて着用者のメッシュを推定する最初の方法である。
全体として、SEE-MEは現在の最高の手法を超え、ポーズ推定誤差(MPJPE)を53%削減する。
論文 参考訳(メタデータ) (2024-11-07T10:28:49Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Generative Proxemics: A Prior for 3D Social Interaction from Images [32.547187575678464]
社会的相互作用は人間の行動とコミュニケーションの基本的な側面である。
近親密なソーシャルインタラクションにおける2人の3Dプロキセメクスの事前学習を行う新しいアプローチを提案する。
提案手法は,ノイズの多い初期推定値から正確な3次元ソーシャルインタラクションを復元し,最先端の手法より優れる。
論文 参考訳(メタデータ) (2023-06-15T17:59:20Z) - ScanERU: Interactive 3D Visual Grounding based on Embodied Reference
Understanding [67.21613160846299]
Embodied Reference Understanding (ERU) はこの懸念に対して最初に設計されている。
ScanERUと呼ばれる新しいデータセットは、このアイデアの有効性を評価するために構築されている。
論文 参考訳(メタデータ) (2023-03-23T11:36:14Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Dual networks based 3D Multi-Person Pose Estimation from Monocular Video [42.01876518017639]
複数人の3Dポーズ推定はシングルポーズ推定よりも難しい。
既存のトップダウンとボトムアップのアプローチでは、推定が検出エラーに悩まされる。
我々は,トップダウンアプローチとボトムアップアプローチを統合して,その強みを活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T08:53:38Z) - Monocular 3D Multi-Person Pose Estimation by Integrating Top-Down and
Bottom-Up Networks [33.974241749058585]
マルチパーソンポーズ推定は、人間の検出が間違っている可能性があり、人間の結合群は信頼できない。
既存のトップダウン手法は人間の検出に依存しているため、これらの問題に悩まされる。
我々は,その強みを生かすために,トップダウンアプローチとボトムアップアプローチの統合を提案する。
論文 参考訳(メタデータ) (2021-04-05T07:05:21Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - MonStereo: When Monocular and Stereo Meet at the Tail of 3D Human
Localization [89.71926844164268]
本研究では, 単分子的および立体的両方の長所を生かした新しい統合学習フレームワークを提案する。
本手法は, 左右画像中の人間を関連づけ, (ii) 立体的環境下では隠蔽された, 遠方のケースを扱い, (iii) 単眼視射影の内在的曖昧さに対処する。
論文 参考訳(メタデータ) (2020-08-25T09:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。