論文の概要: Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps
- arxiv url: http://arxiv.org/abs/2207.02519v1
- Date: Wed, 6 Jul 2022 08:52:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 21:42:04.535598
- Title: Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps
- Title(参考訳): 深度マップを用いた3次元ロボットポーズ推定のためのセミパースペクティブデカップリングヒートマップ
- Authors: Alessandro Simoni, Stefano Pini, Guido Borghi, Roberto Vezzani
- Abstract要約: 協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
- 参考スコア(独自算出の注目度): 66.24554680709417
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Knowing the exact 3D location of workers and robots in a collaborative
environment enables several real applications, such as the detection of unsafe
situations or the study of mutual interactions for statistical and social
purposes. In this paper, we propose a non-invasive and light-invariant
framework based on depth devices and deep neural networks to estimate the 3D
pose of robots from an external camera. The method can be applied to any robot
without requiring hardware access to the internal states. We introduce a novel
representation of the predicted pose, namely Semi-Perspective Decoupled
Heatmaps (SPDH), to accurately compute 3D joint locations in world coordinates
adapting efficient deep networks designed for the 2D Human Pose Estimation. The
proposed approach, which takes as input a depth representation based on XYZ
coordinates, can be trained on synthetic depth data and applied to real-world
settings without the need for domain adaptation techniques. To this end, we
present the SimBa dataset, based on both synthetic and real depth images, and
use it for the experimental evaluation. Results show that the proposed
approach, made of a specific depth map representation and the SPDH, overcomes
the current state of the art.
- Abstract(参考訳): 協調環境における労働者とロボットの正確な3D位置を知ることで、安全でない状況の検出や統計的および社会的目的のための相互相互作用の研究など、いくつかの実際の応用が可能になる。
本稿では,深層デバイスと深層ニューラルネットワークに基づく非侵襲的,光不変なフレームワークを提案し,外部カメラからロボットの3次元ポーズを推定する。
この方法は、内部状態へのハードウェアアクセスを必要とせずに、任意のロボットに適用することができる。
本研究では,予測されたポーズの表現,すなわちSPDH(Semi-Perspective Decoupled Heatmaps)を導入し,世界座標における3次元関節位置を高精度に計算し,効率的な深層ネットワークを設計した。
提案手法は、XYZ座標に基づく深度表現を入力として、合成深度データに基づいて訓練し、ドメイン適応技術を必要としない実世界の設定に適用することができる。
この目的のために,SimBaデータセットを合成画像と実深度画像の両方に基づいて提示し,実験評価に使用した。
提案手法は,特定の深度マップ表現とSPDHにより構成され,現状を克服していることを示す。
関連論文リスト
- Calibrating Panoramic Depth Estimation for Practical Localization and
Mapping [20.621442016969976]
周囲環境の絶対深度値は, 局所化, ナビゲーション, 3次元構造推定など, 様々な補助技術にとって重要な手がかりとなる。
本研究では,パノラマ画像から推定される精度の高い深度が,3次元情報を必要とする幅広い下流タスクに対して,強力で軽量な入力として機能することを提案する。
論文 参考訳(メタデータ) (2023-08-27T04:50:05Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Scene-aware Egocentric 3D Human Pose Estimation [72.57527706631964]
頭部に1台の魚眼カメラを装着したエゴセントリックな3Dポーズ推定は、仮想現実や拡張現実における多くの応用により、近年注目を集めている。
既存の方法はまだ、人間の体が非常に隠蔽されている、あるいはシーンと密接な相互作用がある、挑戦的なポーズに苦慮している。
本研究では,シーン制約による自己中心型ポーズの予測を導くシーン認識型自己中心型ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T21:35:39Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Sparse Depth Completion with Semantic Mesh Deformation Optimization [4.03103540543081]
本稿では、RGB画像とスパース深度サンプルを入力とし、完全な深度マップを予測し、最適化後のニューラルネットワークを提案する。
評価結果は,屋内および屋外両方のデータセットにおいて,既存の成果を一貫して上回る結果となった。
論文 参考訳(メタデータ) (2021-12-10T13:01:06Z) - Real-Time Multi-View 3D Human Pose Estimation using Semantic Feedback to
Smart Edge Sensors [28.502280038100167]
各カメラビューに対する2次元関節検出は、専用の埋め込み推論プロセッサ上で局所的に行われる。
3次元ポーズは、三角法と体モデルに基づいて、中央のバックエンドにある2次元関節から回収される。
パイプライン全体がリアルタイム操作が可能なのです。
論文 参考訳(メタデータ) (2021-06-28T14:00:00Z) - On the role of depth predictions for 3D human pose estimation [0.04199844472131921]
推定深度値とともに2dジョイント位置を入力とし、3d位置をカメラ座標で予測するシステムを構築します。
結果は低次元の入力を受け入れ、リアルタイムシステムに統合されるニューラルネットワークで生成されます。
本システムは市販の2dポーズ検出器と深度マップ予測器と組み合わせて野生での3dポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-03-03T16:51:38Z) - Ground-aware Monocular 3D Object Detection for Autonomous Driving [6.5702792909006735]
1台のRGBカメラで環境中の物体の位置と向きを推定することは、低コストの都市自動運転と移動ロボットにとって難しい課題である。
既存のアルゴリズムのほとんどは、2D-3D対応における幾何学的制約に基づいており、これは一般的な6Dオブジェクトのポーズ推定に由来する。
深層学習の枠組みにおいて、そのようなアプリケーション固有の事前知識を完全に活用するための新しいニューラルネットワークモジュールを導入する。
論文 参考訳(メタデータ) (2021-02-01T08:18:24Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。