論文の概要: View Invariant Human Body Detection and Pose Estimation from Multiple
Depth Sensors
- arxiv url: http://arxiv.org/abs/2005.04258v1
- Date: Fri, 8 May 2020 19:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:34:56.949200
- Title: View Invariant Human Body Detection and Pose Estimation from Multiple
Depth Sensors
- Title(参考訳): 複数深度センサによる人体の視野不変検出とポーズ推定
- Authors: Walid Bekhtaoui, Ruhan Sa, Brian Teixeira, Vivek Singh, Klaus
Kirchberg, Yao-jen Chang, Ankur Kapoor
- Abstract要約: 本稿では,複数地点のクラウドソースを用いて,エンドツーエンドの多対人3Dポーズ推定ネットワークであるPoint R-CNNを提案する。
我々は、個別のカメラ故障、様々なターゲットの外観、複雑な散らかったシーンなど、現実の課題をシミュレートする広範囲な実験を行った。
一方、私たちのエンドツーエンドネットワークは、カスケードされた最先端モデルよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 0.7080990243618376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud based methods have produced promising results in areas such as 3D
object detection in autonomous driving. However, most of the recent point cloud
work focuses on single depth sensor data, whereas less work has been done on
indoor monitoring applications, such as operation room monitoring in hospitals
or indoor surveillance. In these scenarios multiple cameras are often used to
tackle occlusion problems. We propose an end-to-end multi-person 3D pose
estimation network, Point R-CNN, using multiple point cloud sources. We conduct
extensive experiments to simulate challenging real world cases, such as
individual camera failures, various target appearances, and complex cluttered
scenes with the CMU panoptic dataset and the MVOR operation room dataset.
Unlike most of the previous methods that attempt to use multiple sensor
information by building complex fusion models, which often lead to poor
generalization, we take advantage of the efficiency of concatenating point
clouds to fuse the information at the input level. In the meantime, we show our
end-to-end network greatly outperforms cascaded state-of-the-art models.
- Abstract(参考訳): ポイントクラウドベースの手法は、自動運転における3dオブジェクト検出などの領域で有望な結果を生み出している。
しかし、近年のクラウドワークのほとんどは、単一深度センサーのデータに焦点を当てているが、病院での手術室モニタリングや屋内監視といった屋内監視アプリケーションでは、少ない作業がなされている。
これらのシナリオでは、複数のカメラが閉塞問題に対処するためにしばしば使用される。
本稿では,複数点のクラウドソースを用いた複数対個人3Dポーズ推定ネットワークであるPoint R-CNNを提案する。
我々は、個別のカメラ故障、様々なターゲットの外観、CMUパン光学データセットとMVOR操作室データセットによる複雑な乱雑なシーンなど、現実の課題をシミュレートするための広範な実験を行った。
複雑な融合モデルを構築して複数のセンサ情報を利用しようとする従来の方法とは異なり、我々は点雲を連結して入力レベルで情報を融合する効率を生かしている。
その間、当社のエンドツーエンドネットワークは、カスケードされた最先端モデルを大きく上回っています。
関連論文リスト
- One for All: Multi-Domain Joint Training for Point Cloud Based 3D Object Detection [71.78795573911512]
textbfOneDet3Dは、異なるドメイン間での3D検出に対処する汎用的なワン・ツー・オール・モデルである。
本稿では、データ干渉問題に対処するため、ルーティング機構によって誘導される散乱とコンテキストにおけるドメイン認識を提案する。
完全なスパース構造とアンカーフリーヘッドは、さらに大きなスケールの差のある点雲を収容する。
論文 参考訳(メタデータ) (2024-11-03T14:21:56Z) - Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - Multi-Camera Multi-Object Tracking on the Move via Single-Stage Global
Association Approach [23.960847268459293]
この研究は、複数カメラから1つ以上の検出を追跡対象に関連付けるための、新しいシングルステージグローバルアソシエーション追跡手法を導入する。
また,本モデルでは,nuScenes検出課題において,標準的な視覚に基づく3次元物体検出器の検出精度も向上した。
論文 参考訳(メタデータ) (2022-11-17T17:03:24Z) - Semantic keypoint extraction for scanned animals using
multi-depth-camera systems [2.513785998932353]
ポイントクラウドにおけるキーポイントアノテーションは、3D再構成、オブジェクト追跡、アライメントにおいて重要なタスクである。
農業の文脈では、家畜の自動化が条件評価や行動認識に向けて働くことが重要な課題である。
本稿では,キーポイント抽出を回帰問題として再構成することで,ポイントクラウドにおける意味キーポイントアノテーションの新たなアプローチを提案する。
本手法は,複数のハードウェア同期RGB-Dカメラの校正システムを用いて,移動牛のフィールドで収集したデータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-11-16T03:06:17Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - siaNMS: Non-Maximum Suppression with Siamese Networks for Multi-Camera
3D Object Detection [65.03384167873564]
サイムズネットワークは、よく知られた3Dオブジェクト検出器アプローチのパイプラインに統合される。
アソシエーションはオブジェクトの3Dボックスレグレッションを強化するために利用される。
nuScenesデータセットの実験的評価は,提案手法が従来のNMS手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2020-02-19T15:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。