論文の概要: Unsupervised Cross-Domain Regression for Fine-grained 3D Game Character Reconstruction
- arxiv url: http://arxiv.org/abs/2412.10430v1
- Date: Wed, 11 Dec 2024 01:49:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:55:32.440955
- Title: Unsupervised Cross-Domain Regression for Fine-grained 3D Game Character Reconstruction
- Title(参考訳): きめ細かい3次元ゲームキャラクタ再構成のための教師なしクロスドメイン回帰
- Authors: Qi Wen, Xiang Wen, Hao Jiang, Siqi Yang, Bingfeng Han, Tianlei Hu, Gang Chen, Shuang Li,
- Abstract要約: 単一視点画像から細粒度3Dゲームキャラクタをエンド・ツー・エンドで再構成できるクロスドメインフレームワークを提案する。
実験により,本手法は3次元ゲームキャラクタ再構成における最先端性能を示す。
- 参考スコア(独自算出の注目度): 16.11347525543063
- License:
- Abstract: With the rise of the ``metaverse'' and the rapid development of games, it has become more and more critical to reconstruct characters in the virtual world faithfully. The immersive experience is one of the most central themes of the ``metaverse'', while the reducibility of the avatar is the crucial point. Meanwhile, the game is the carrier of the metaverse, in which players can freely edit the facial appearance of the game character. In this paper, we propose a simple but powerful cross-domain framework that can reconstruct fine-grained 3D game characters from single-view images in an end-to-end manner. Different from the previous methods, which do not resolve the cross-domain gap, we propose an effective regressor that can greatly reduce the discrepancy between the real-world domain and the game domain. To figure out the drawbacks of no ground truth, our unsupervised framework has accomplished the knowledge transfer of the target domain. Additionally, an innovative contrastive loss is proposed to solve the instance-wise disparity, which keeps the person-specific details of the reconstructed character. In contrast, an auxiliary 3D identity-aware extractor is activated to make the results of our model more impeccable. Then a large set of physically meaningful facial parameters is generated robustly and exquisitely. Experiments demonstrate that our method yields state-of-the-art performance in 3D game character reconstruction.
- Abstract(参考訳): 「メタバース」の台頭とゲームの急速な発展により、仮想世界のキャラクターを忠実に再構築することがますます重要になっている。
没入体験は『メタバース』の最も中心的なテーマの1つであり、アバターの再現性は決定的なポイントである。
一方、ゲームはメタバースの担体であり、プレイヤーはゲームキャラクタの顔の外観を自由に編集することができる。
本稿では,単一視点画像から細粒度3Dゲームキャラクタをエンド・ツー・エンドで再構成可能な,シンプルだが強力なクロスドメインフレームワークを提案する。
クロスドメインギャップを解消しない従来の手法とは違って,実世界の領域とゲーム領域との差を大幅に低減できる効果的な回帰器を提案する。
根拠のない真理の欠点を明らかにするために、我々の教師なしフレームワークは、対象ドメインの知識伝達を達成した。
さらに、再構成された文字の個人固有の詳細を保持するインスタンスワイド格差を解決するために、革新的なコントラスト損失が提案されている。
対照的に、補助的な3DID対応抽出器が起動され、モデルの結果がより不適切なものになる。
そして、物理的に意味のある顔パラメータの大規模なセットを頑健かつ精巧に生成する。
実験により,本手法は3次元ゲームキャラクタ再構成における最先端性能を示す。
関連論文リスト
- 2L3: Lifting Imperfect Generated 2D Images into Accurate 3D [16.66666619143761]
マルチビュー(MV)3次元再構成は,生成したMV画像を一貫した3次元オブジェクトに融合させる,有望なソリューションである。
しかし、生成された画像は、通常、一貫性のない照明、不整合幾何学、スパースビューに悩まされ、復元の質が低下する。
本稿では, 内在的分解誘導, 過渡的モノ先行誘導, および3つの問題に対処するための視認性向上を活用する新しい3次元再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T02:30:31Z) - ToonTalker: Cross-Domain Face Reenactment [80.52472147553333]
クロスドメインな顔の再現は、実際の人のビデオで漫画のイメージを駆動することと、その逆である。
近年、実際の映像で肖像画を撮るワンショットの顔生成に多くの作品が焦点を当てている。
本稿では,異なる領域からの動作を共通の潜在空間に整列するトランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-24T15:43:14Z) - D-IF: Uncertainty-aware Human Digitization via Implicit Distribution
Field [16.301611237147863]
そこで本研究では,暗黙の値を適応不確かさ分布に置き換えて,表面への距離に基づいて点を区別する手法を提案する。
この分散の遷移に対する単純な値は、ほぼすべてのベースラインに対して大きな改善をもたらす。
その結果、不確実性分布損失を用いてトレーニングされたモデルは、より複雑なしわや現実的な手足を捉えることができることがわかった。
論文 参考訳(メタデータ) (2023-08-17T08:31:11Z) - Black-Box Test-Time Shape REFINEment for Single View 3D Reconstruction [57.805334118057665]
文献中の任意のブラックボックス方式のパイプラインに容易に組み込むことができる後処理メッシュ改善ステップであるREFINEを提案する。
テスト時には、REFINEはメッシュ毎のネットワークインスタンスを最適化し、メッシュと所定のオブジェクトビュー間の一貫性を促進する。
論文 参考訳(メタデータ) (2021-08-23T03:28:47Z) - ARCH++: Animation-Ready Clothed Human Reconstruction Revisited [82.83445332309238]
任意の服装スタイルで3Dアバターを再構成する画像ベースARCH++を提案する。
再建されたアバターは、入力ビューから見える領域と見えない領域の両方において、アニメーションに対応しており、非常にリアルである。
論文 参考訳(メタデータ) (2021-08-17T19:27:12Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - Human Mesh Recovery from Multiple Shots [85.18244937708356]
疑似地上真理3Dヒューマンメッシュを用いた長期シーケンスの3次元再構築とマイニングの改善のためのフレームワークを提案する。
得られたデータは,様々なメッシュ回復モデルのトレーニングに有用であることを示す。
編集メディアの大規模なライブラリーから3Dコンテンツを処理・分析するための扉を開くツールを開発した。
論文 参考訳(メタデータ) (2020-12-17T18:58:02Z) - Coherent Reconstruction of Multiple Humans from a Single Image [68.3319089392548]
本研究では,1枚の画像から多人数の3Dポーズ推定を行う問題に対処する。
この問題のトップダウン設定における典型的な回帰アプローチは、まずすべての人間を検出し、それぞれを独立して再構築する。
我々のゴールは、これらの問題を回避し、現場のすべての人間のコヒーレントな3D再構成を生成するために学習する単一のネットワークをトレーニングすることである。
論文 参考訳(メタデータ) (2020-06-15T17:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。