論文の概要: HO-3D_v3: Improving the Accuracy of Hand-Object Annotations of the HO-3D
Dataset
- arxiv url: http://arxiv.org/abs/2107.00887v1
- Date: Fri, 2 Jul 2021 08:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 12:44:53.211083
- Title: HO-3D_v3: Improving the Accuracy of Hand-Object Annotations of the HO-3D
Dataset
- Title(参考訳): HO-3D_v3: HO-3Dデータセットの手動アノテーションの精度向上
- Authors: Shreyas Hampali, Sayan Deb Sarkar, Vincent Lepetit
- Abstract要約: HO-3Dは、手とオブジェクトの3Dポーズにアノテートされた様々なハンドオブジェクトインタラクションシナリオの画像シーケンスを提供するデータセットである。
アノテーションは、原論文で紹介された最適化手法「ほんたて」で自動的に取得される。
- 参考スコア(独自算出の注目度): 30.19796694639299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: HO-3D is a dataset providing image sequences of various hand-object
interaction scenarios annotated with the 3D pose of the hand and the object and
was originally introduced as HO-3D_v2. The annotations were obtained
automatically using an optimization method, 'HOnnotate', introduced in the
original paper. HO-3D_v3 provides more accurate annotations for both the hand
and object poses thus resulting in better estimates of contact regions between
the hand and the object. In this report, we elaborate on the improvements to
the HOnnotate method and provide evaluations to compare the accuracy of
HO-3D_v2 and HO-3D_v3. HO-3D_v3 results in 4mm higher accuracy compared to
HO-3D_v2 for hand poses while exhibiting higher contact regions with the object
surface.
- Abstract(参考訳): HO-3Dは、手とオブジェクトの3Dポーズにアノテートされた様々なハンドオブジェクトインタラクションシナリオの画像シーケンスを提供するデータセットで、元々HO-3D_v2として導入された。
本論文で紹介した最適化手法「本注」を用いてアノテーションを自動生成した。
ho-3d_v3は、手とオブジェクトのポーズの両方に対してより正確なアノテーションを提供するので、手とオブジェクトの接触領域の見積もりがより良くなります。
本稿では,HOnnotate法の改良について詳述し,HO-3D_v2とHO-3D_v3の精度を比較するための評価を行った。
ho-3d_v3は、手ポーズのho-3d_v2よりも4mm高い精度を示し、物体表面との接触領域も高い。
関連論文リスト
- HandDiff: 3D Hand Pose Estimation with Diffusion on Image-Point Cloud [60.47544798202017]
ハンドポーズ推定は、様々な人間とコンピュータの相互作用アプリケーションにおいて重要なタスクである。
本論文は,手形画像点雲上での正確な手ポーズを反復的に認知する拡散型手ポーズ推定モデルであるHandDiffを提案する。
実験の結果,提案したHandDiffは,4つの挑戦的なハンドポーズベンチマークデータセットにおいて,既存のアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-04-04T02:15:16Z) - HOISDF: Constraining 3D Hand-Object Pose Estimation with Global Signed
Distance Fields [96.04424738803667]
HOISDFは手動ポーズ推定ネットワークである。
手とオブジェクトのSDFを利用して、完全な再構築ボリュームに対してグローバルで暗黙的な表現を提供する。
そこで, HOISDFは手動ポーズ推定ベンチマークにおいて, 最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2024-02-26T22:48:37Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - AssemblyHands: Towards Egocentric Activity Understanding via 3D Hand
Pose Estimation [26.261767086366866]
正確な3Dハンドポーズアノテーションを備えた大規模ベンチマークデータセットである AssemblyHands を提示する。
AssemblyHandsは490Kのエゴセントリックなイメージを含む3.0Mの注釈付きイメージを提供する。
我々の研究は、高品質の手のポーズが、行動を認識する能力を直接的に改善することを示しています。
論文 参考訳(メタデータ) (2023-04-24T17:52:57Z) - LG-Hand: Advancing 3D Hand Pose Estimation with Locally and Globally
Kinematic Knowledge [0.693939291118954]
本稿では3次元手ポーズ推定のための強力な手法であるLG-Handを提案する。
キネマティックな情報が重要な役割を担い、3次元手ポーズ推定の性能に寄与すると主張している。
提案手法は,Person Hand Action Benchmarkデータセット上で有望な結果を得る。
論文 参考訳(メタデータ) (2022-11-06T15:26:32Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - InterHand2.6M: A Dataset and Baseline for 3D Interacting Hand Pose
Estimation from a Single RGB Image [71.17227941339935]
大規模データセットであるInterHand2.6Mと,1枚のRGB画像から3次元インタラクションハンドポーズ推定を行うネットワークであるInterNetを提案する。
実験では,InterHand2.6Mのインタラクションハンドデータを利用する場合,3次元インタラクションハンドポーズ推定の精度が大きく向上することを示した。
この新しいデータセットの強力なベースラインとして機能するInterHand2.6M上でのInterNetの精度についても報告する。
論文 参考訳(メタデータ) (2020-08-21T05:15:58Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。