論文の概要: Recovering 3D Hand Mesh Sequence from a Single Blurry Image: A New
Dataset and Temporal Unfolding
- arxiv url: http://arxiv.org/abs/2303.15417v1
- Date: Mon, 27 Mar 2023 17:40:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 14:08:57.169884
- Title: Recovering 3D Hand Mesh Sequence from a Single Blurry Image: A New
Dataset and Temporal Unfolding
- Title(参考訳): 単一のぼやけた画像から3次元ハンドメッシュシーケンスを復元する:新しいデータセットと時間展開
- Authors: Yeonguk Oh, JoonKyu Park, Jaeha Kim, Gyeongsik Moon, Kyoung Mu Lee
- Abstract要約: まず,3次元基底構造を持つぼやけた手画像を含む新しいデータセットBlurHandを提示する。
BlurHandは、シーケンシャルな手の画像から動きのぼかしを合成し、リアルで自然な動きのぼかしを模倣して作られている。
新しいデータセットに加えて、ぼやけた手画像から正確な3次元手メッシュを復元するためのベースラインネットワークであるBlurHandNetを提案する。
- 参考スコア(独自算出の注目度): 54.49373038369293
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Hands, one of the most dynamic parts of our body, suffer from blur due to
their active movements. However, previous 3D hand mesh recovery methods have
mainly focused on sharp hand images rather than considering blur due to the
absence of datasets providing blurry hand images. We first present a novel
dataset BlurHand, which contains blurry hand images with 3D groundtruths. The
BlurHand is constructed by synthesizing motion blur from sequential sharp hand
images, imitating realistic and natural motion blurs. In addition to the new
dataset, we propose BlurHandNet, a baseline network for accurate 3D hand mesh
recovery from a blurry hand image. Our BlurHandNet unfolds a blurry input image
to a 3D hand mesh sequence to utilize temporal information in the blurry input
image, while previous works output a static single hand mesh. We demonstrate
the usefulness of BlurHand for the 3D hand mesh recovery from blurry images in
our experiments. The proposed BlurHandNet produces much more robust results on
blurry images while generalizing well to in-the-wild images. The training codes
and BlurHand dataset are available at
https://github.com/JaehaKim97/BlurHand_RELEASE.
- Abstract(参考訳): 身体の最もダイナミックな部分の1つである手は、その活発な動きのためにぼやけている。
しかし,従来の3次元手メッシュ復元手法は,ぼやけた手画像を提供するデータセットが存在しないため,ぼやけを考慮せず,シャープな手画像に重点を置いている。
まず,3次元基底構造を持つぼやけた手画像を含む新しいデータセットBlurHandを提示する。
ぼかしハンドは、連続したシャープな手画像から動きのぼやけを合成し、リアルで自然な動きのぼやけを模倣する。
新しいデータセットに加えて、ぼやけた手画像から正確な3次元手メッシュを復元するためのベースラインネットワークであるBlurHandNetを提案する。
我々のBlurHandNetは、ぼやけた入力画像を3Dハンドメッシュシーケンスに展開して、ぼやけた入力画像の時間情報を利用する。
実験では,ぼやけた画像から3Dハンドメッシュを回収するためのBlurHandの有用性を示した。
提案するbraghandnetは,野次馬内画像によく一般化しながら,ぼやけた画像に対してはるかに堅牢な結果を生成する。
トレーニングコードとBlurHandデータセットはhttps://github.com/JaehaKim97/BlurHand_RELEASEで公開されている。
関連論文リスト
- AttentionHand: Text-driven Controllable Hand Image Generation for 3D Hand Reconstruction in the Wild [18.351368674337134]
AttentionHandはテキスト駆動による手動画像生成の新しい手法である。
3Dハンドラベルとよく整合した、さまざまな、そして多数の手動画像を生成することができる。
テキスト・ツー・ハンド画像生成モデル間で最先端を実現する。
論文 参考訳(メタデータ) (2024-07-25T13:29:32Z) - HandGCAT: Occlusion-Robust 3D Hand Mesh Reconstruction from Monocular Images [9.554136347258057]
モノクロ画像から3Dハンドメッシュを再構築するための頑健で正確な手法を提案する。
HandGCATは、隠された領域の機能を強化するために、補償情報としてハンドプレッシャを完全に活用することができる。
論文 参考訳(メタデータ) (2024-02-27T03:40:43Z) - HandNeRF: Learning to Reconstruct Hand-Object Interaction Scene from a Single RGB Image [41.580285338167315]
本稿では,1枚のRGB画像から3次元手オブジェクトシーンを再構成する前に,手オブジェクト間のインタラクションを学習する方法を提案する。
我々は手形状を用いて手と物体形状の相対的な構成を制約する。
そこで,HandNeRFは,手動による新たなグリップ構成のシーンを,同等の手法よりも高精度に再構築可能であることを示す。
論文 参考訳(メタデータ) (2023-09-14T17:42:08Z) - Human from Blur: Human Pose Tracking from Blurry Images [89.65036443997103]
ほぼぼやけた画像から3次元人間のポーズを推定する手法を提案する。
中心となる考え方は、人間の3次元モデル、テクスチャマップ、人間の動きを記述するポーズの列で前方の問題をモデル化することで、画像劣化の逆問題に取り組むことである。
微分可能なステップを用いることで、画素ワイズ再投影誤差をバックプロパゲートして、最適な人間の動作表現を復元することで、逆問題を解決することができる。
論文 参考訳(メタデータ) (2023-03-30T08:05:59Z) - Monocular 3D Reconstruction of Interacting Hands via Collision-Aware
Factorized Refinements [96.40125818594952]
単眼のRGB画像から3Dインタラクションハンドを再構築する試みを初めて行った。
提案手法では, 高精度な3次元ポーズと最小の衝突で3次元ハンドメッシュを生成することができる。
論文 参考訳(メタデータ) (2021-11-01T08:24:10Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - Weakly-Supervised Mesh-Convolutional Hand Reconstruction in the Wild [59.158592526006814]
YouTubeビデオに手の動きの大規模なデータセットを収集することで、ネットワークをトレーニングします。
私たちの弱い教師付きメッシュ畳み込みベースのシステムは、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-04-04T14:35:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。