論文の概要: Robot Pose Nowcasting: Forecast the Future to Improve the Present
- arxiv url: http://arxiv.org/abs/2308.12914v1
- Date: Thu, 24 Aug 2023 16:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 13:18:01.123207
- Title: Robot Pose Nowcasting: Forecast the Future to Improve the Present
- Title(参考訳): ロボットが今を振り返る:未来を予測して現在を改善する
- Authors: Alessandro Simoni, Francesco Marchetti, Guido Borghi, Federico
Becattini, Lorenzo Seidenari, Roberto Vezzani, Alberto Del Bimbo
- Abstract要約: この協調パラダイムを実現するための重要な前提は、ロボットの環境内の3Dポーズを正確に理解することである。
本稿では,ロボット関節の3次元位置を正確に把握するために,深度データを活用した新しい視覚ベースシステムを提案する。
提案システムでは,将来のポーズを予測するために,協調学習を行うことで,現在のポーズ推定精度を高めることができる。
- 参考スコア(独自算出の注目度): 65.65178700528747
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, the effective and safe collaboration between humans and
machines has gained significant importance, particularly in the Industry 4.0
scenario. A critical prerequisite for realizing this collaborative paradigm is
precisely understanding the robot's 3D pose within its environment. Therefore,
in this paper, we introduce a novel vision-based system leveraging depth data
to accurately establish the 3D locations of robotic joints. Specifically, we
prove the ability of the proposed system to enhance its current pose estimation
accuracy by jointly learning to forecast future poses. Indeed, we introduce the
concept of Pose Nowcasting, denoting the capability of a system to exploit the
learned knowledge of the future to improve the estimation of the present. The
experimental evaluation is conducted on two different datasets, providing
state-of-the-art and real-time performance and confirming the validity of the
proposed method on both the robotic and human scenarios.
- Abstract(参考訳): 近年では、特に産業4.0のシナリオにおいて、人間と機械の効果的で安全なコラボレーションの重要性が高まっている。
この協調パラダイムを実現するための重要な前提は、ロボットの環境内の3Dポーズを正確に理解することである。
そこで本稿では,ロボット関節の3次元位置を正確に確立するために,奥行きデータを利用したビジョンベースシステムを提案する。
具体的には,共同学習により現在のポーズ推定精度を向上し,今後のポーズ予測を行うシステムの有効性を実証する。
実際,本稿では,現在の推定精度を向上させるために,将来の学習知識を活用できるシステムの能力を示す,ポーズ・ナッシングの概念を紹介する。
実験評価は2つの異なるデータセット上で行われ,最新かつリアルタイムな性能を提供し,ロボットと人間の両方のシナリオにおける提案手法の有効性を確認した。
関連論文リスト
- Multi-view Pose Fusion for Occlusion-Aware 3D Human Pose Estimation [3.442372522693843]
本稿では,人間とロボットのコラボレーションの文脈におけるロバストな3次元ポーズ推定手法を提案する。
提案手法は,最先端の多視点人間のポーズ推定手法より優れている。
論文 参考訳(メタデータ) (2024-08-28T14:10:57Z) - HOIMotion: Forecasting Human Motion During Human-Object Interactions Using Egocentric 3D Object Bounding Boxes [10.237077867790612]
本稿では,人間と物体の相互作用における人間の動き予測の新しい手法であるHOIMotionを提案する。
提案手法は,過去の身体のポーズやエゴセントリックな3Dオブジェクト境界ボックスに関する情報を統合する。
HOIMotionは、最先端の手法よりも大きなマージンで一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-07-02T19:58:35Z) - 3D WholeBody Pose Estimation based on Semantic Graph Attention Network and Distance Information [2.457872341625575]
新たなセマンティックグラフアテンションネットワークは、グローバルコンテキストをキャプチャする自己アテンションの能力の恩恵を受けることができる。
本体部分デコーダは、身体の特定のセグメントに関連する情報を抽出し、精製するのを支援する。
幾何学的損失(Geometry Loss)は身体の構造的骨格に批判的な制約を与え、モデルの予測が人間の姿勢の自然な限界に合致することを確実にする。
論文 参考訳(メタデータ) (2024-06-03T10:59:00Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Unifying Correspondence, Pose and NeRF for Pose-Free Novel View Synthesis from Stereo Pairs [57.492124844326206]
この研究は、3次元視覚における挑戦的で先駆的な課題であるステレオペアからのポーズレスノベルビュー合成の課題に踏み込んだ。
我々の革新的なフレームワークは、これまでとは違って、シームレスに2D対応マッチング、カメラポーズ推定、NeRFレンダリングを統合し、これらのタスクの相乗的強化を促進します。
論文 参考訳(メタデータ) (2023-12-12T13:22:44Z) - UniHPE: Towards Unified Human Pose Estimation via Contrastive Learning [29.037799937729687]
2次元と3次元の人間の姿勢推定(HPE)はコンピュータビジョンにおける2つの重要な知覚的タスクである。
提案するUniHPEは,3つのモードの全ての特徴を整列する,統一されたヒューマンポーズ推定パイプラインである。
提案手法は,コンピュータビジョンの分野を前進させ,様々な応用に寄与する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-24T21:55:34Z) - Pose-Oriented Transformer with Uncertainty-Guided Refinement for
2D-to-3D Human Pose Estimation [51.00725889172323]
本研究では,3次元ポーズ推定のための不確実性ガイド付き多目的変換器(POT)を提案する。
我々はまず,人骨のトポロジーを明示的に活用するために,新しいポーズ指向の自己注意機構と距離関連位置埋め込みを開発した。
本稿では,特に難解な関節に対するPOTからのポーズ予測を洗練させるために,不確実性誘導型リファインメントネットワーク(UGRN)を提案する。
論文 参考訳(メタデータ) (2023-02-15T00:22:02Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - 3D Pose Estimation and Future Motion Prediction from 2D Images [26.28886209268217]
本稿では,3次元人物のポーズを推定し,RGB画像列から将来の3次元動作を予測するという,高相関な課題に共同で取り組むことを検討する。
リー代数のポーズ表現に基づいて、人間の運動キネマティクスを自然に保存する新しい自己投射機構が提案されている。
論文 参考訳(メタデータ) (2021-11-26T01:02:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。