論文の概要: HandAugment: A Simple Data Augmentation Method for Depth-Based 3D Hand
Pose Estimation
- arxiv url: http://arxiv.org/abs/2001.00702v2
- Date: Thu, 23 Jan 2020 06:07:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 17:45:31.815824
- Title: HandAugment: A Simple Data Augmentation Method for Depth-Based 3D Hand
Pose Estimation
- Title(参考訳): HandAugment: 深度に基づく3Dハンドポース推定のための簡易データ拡張手法
- Authors: Zhaohui Zhang and Shipeng Xie and Mingxiu Chen and Haichao Zhu
- Abstract要約: 本稿では,ニューラルネットワークのトレーニングプロセスを強化するために,画像データを合成するHandAugmentを提案する。
本研究では,HANDS 2019における深度に基づく3次元手ポーズ推定の課題において,本手法が第一位となることを示す。
- 参考スコア(独自算出の注目度): 3.0969191504482247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hand pose estimation from 3D depth images, has been explored widely using
various kinds of techniques in the field of computer vision. Though, deep
learning based method improve the performance greatly recently, however, this
problem still remains unsolved due to lack of large datasets, like ImageNet or
effective data synthesis methods. In this paper, we propose HandAugment, a
method to synthesize image data to augment the training process of the neural
networks. Our method has two main parts: First, We propose a scheme of
two-stage neural networks. This scheme can make the neural networks focus on
the hand regions and thus to improve the performance. Second, we introduce a
simple and effective method to synthesize data by combining real and synthetic
image together in the image space. Finally, we show that our method achieves
the first place in the task of depth-based 3D hand pose estimation in HANDS
2019 challenge.
- Abstract(参考訳): 3次元深度画像からの手ポーズ推定は,コンピュータビジョンの分野で様々な手法を用いて広く研究されている。
しかし,画像ネットや効率的なデータ合成手法のような大規模なデータセットが不足しているため,この問題はまだ解決されていない。
本稿では,画像データを合成してニューラルネットワークの学習過程を増強する方法であるhandaugmentを提案する。
まず,2段階のニューラルネットワークの手法を提案する。
このスキームは、ニューラルネットワークをハンドリージョンに集中させ、パフォーマンスを向上させることができる。
第2に,画像空間に実画像と合成画像を組み合わせることで,簡便かつ効果的なデータ合成手法を提案する。
最後に,HANDS 2019における深度に基づく3次元手ポーズ推定の課題において,本手法が第一位となることを示す。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - HandVoxNet++: 3D Hand Shape and Pose Estimation using Voxel-Based Neural
Networks [71.09275975580009]
HandVoxNet++は、完全に教師された方法でトレーニングされた3Dおよびグラフ畳み込みを備えた、ボクセルベースのディープネットワークである。
HandVoxNet++は2つの手形状表現に依存している。1つは手形状の3Dボキセル化グリッドで、メッシュトポロジを保存していない。
我々は、新しいニューラルグラフ畳み込みに基づくメッシュレジストレーション(GCN-MeshReg)または古典的セグメントワイド非リジッド重力法(NRGA++)と、手表面をボキセル化ハンド形状に整列させることにより、両表現の利点を組み合わせる。
論文 参考訳(メタデータ) (2021-07-02T17:59:54Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - Towards Dense People Detection with Deep Learning and Depth images [9.376814409561726]
本稿では,1つの深度画像から複数の人物を検出するDNNシステムを提案する。
我々のニューラルネットワークは深度画像を処理し、画像座標の確率マップを出力する。
我々は、この戦略が効果的であることを示し、トレーニング中に使用するものと異なるシーンで動作するように一般化したネットワークを創出する。
論文 参考訳(メタデータ) (2020-07-14T16:43:02Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。