論文の概要: Pomo3D: 3D-Aware Portrait Accessorizing and More
- arxiv url: http://arxiv.org/abs/2409.14430v1
- Date: Sun, 22 Sep 2024 13:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 22:41:53.241556
- Title: Pomo3D: 3D-Aware Portrait Accessorizing and More
- Title(参考訳): Pomo3D: 3D対応のポートレートアクセサイティングなど
- Authors: Tzu-Chieh Liu, Chih-Ting Liu, Shao-Yi Chien,
- Abstract要約: Pomo3Dは3Dポートレート操作フレームワークで、ポートレートやアクセサリーを分解して再コンパイルすることで、自由にアクセゾライズできる。
Scribble2Accessoriesモジュールを導入し、Pomo3Dがユーザ絵のアクセサリー・スクリブル・マップから3Dアクセサリーを作成できるようにする。
上記のオブジェクトレベルの操作に加えて、Pomo3Dはジオメトリやテクスチャのグローバルあるいはローカルな編集やアバターのスタイリングなど、ポートレートの編集オプションも備えている。
- 参考スコア(独自算出の注目度): 16.78668288560229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Pomo3D, a 3D portrait manipulation framework that allows free accessorizing by decomposing and recomposing portraits and accessories. It enables the avatars to attain out-of-distribution (OOD) appearances of simultaneously wearing multiple accessories. Existing methods still struggle to offer such explicit and fine-grained editing; they either fail to generate additional objects on given portraits or cause alterations to portraits (e.g., identity shift) when generating accessories. This restriction presents a noteworthy obstacle as people typically seek to create charming appearances with diverse and fashionable accessories in the virtual universe. Our approach provides an effective solution to this less-addressed issue. We further introduce the Scribble2Accessories module, enabling Pomo3D to create 3D accessories from user-drawn accessory scribble maps. Moreover, we design a bias-conscious mapper to mitigate biased associations present in real-world datasets. In addition to object-level manipulation above, Pomo3D also offers extensive editing options on portraits, including global or local editing of geometry and texture and avatar stylization, elevating 3D editing of neural portraits to a more comprehensive level.
- Abstract(参考訳): ポートレートとアクセサリーを分解・再コンパイルすることで,フリーアクセゾライズを可能にする3Dポートレート操作フレームワークであるPomo3Dを提案する。
これにより、アバターは複数のアクセサリーを同時に装着することで、アウト・オブ・ディストリビューション(OOD)の外観を達成できる。
既存の方法は、そのような明示的できめ細かな編集に苦慮しており、特定の肖像画に追加のオブジェクトを生成したり、アクセサリーを生成する際にポートレート(例えばアイデンティティシフト)を変更することに失敗する。
この制限は、人々が通常仮想空間で多様でファッション可能なアクセサリーで魅力的な外観を創り出そうとする際、注目すべき障害となる。
私たちのアプローチは、この適応の少ない問題に対する効果的な解決策を提供します。
Scribble2Accessoriesモジュールも導入したので,Pomo3Dはユーザが描いたアクセサリのスクリブルマップから3Dアクセサリを作成できる。
さらに、実世界のデータセットに存在するバイアス付き関連性を緩和するバイアス対応マッパーを設計する。
上記のオブジェクトレベルの操作に加えて、Pomo3Dは、幾何学やテクスチャのグローバルなあるいはローカルな編集や、アバターのスタイラス化、ニューラルポートレートの3D編集をより包括的なレベルに高めるといった、ポートレートの編集オプションも備えている。
関連論文リスト
- Tailor3D: Customized 3D Assets Editing and Generation with Dual-Side Images [72.70883914827687]
Tailor3Dは、編集可能なデュアルサイドイメージからカスタマイズされた3Dアセットを作成する新しいパイプラインである。
3Dアセットを編集するためのユーザフレンドリで効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-08T17:59:55Z) - DragGaussian: Enabling Drag-style Manipulation on 3D Gaussian Representation [57.406031264184584]
DragGaussianは、3D Gaussian Splattingをベースにした3Dオブジェクトのドラッグ編集フレームワークである。
我々の貢献は、新しいタスクの導入、インタラクティブなポイントベース3D編集のためのDragGaussianの開発、質的かつ定量的な実験によるその効果の包括的検証などである。
論文 参考訳(メタデータ) (2024-05-09T14:34:05Z) - CosAvatar: Consistent and Animatable Portrait Video Tuning with Text
Prompt [31.035189996266176]
テキスト誘導デジタルポートレート編集のためのフレームワークであるCosAvatarを提案する。
モノクロ映像とテキストの指示のみを入力として、時間的および3次元の整合性を持ったアニマタブルなポートレートを生成することができる。
提案手法は,テキストの指示に基づいて肖像画やローカル属性を正確に編集するだけでなく,ソースビデオによって駆動される表現的アニメーションもサポートする。
論文 参考訳(メタデータ) (2023-11-30T06:48:01Z) - InstructPix2NeRF: Instructed 3D Portrait Editing from a Single Image [25.076270175205593]
InstructPix2NeRFは、人間の指示で単一のオープンワールドイメージから3D対応のポートレート編集を可能にする。
中心となるのは条件付き3D拡散プロセスで、2D編集を3D空間に引き上げ、ペア画像の差分と3重データによる指示との相関を学習する。
論文 参考訳(メタデータ) (2023-11-06T02:21:11Z) - AniPortraitGAN: Animatable 3D Portrait Generation from 2D Image
Collections [78.81539337399391]
顔の表情, 頭部ポーズ, 肩の動きを制御可能なポートレート画像を生成するアニマタブルな3D認識型GANを提案する。
これは、3Dやビデオデータを使用しない非構造化2次元画像コレクションで訓練された生成モデルである。
生成した顔の質を向上させるために,デュアルカメラレンダリングと対角学習方式を提案する。
論文 参考訳(メタデータ) (2023-09-05T12:44:57Z) - Freestyle 3D-Aware Portrait Synthesis Based on Compositional Generative
Priors [12.663585627797863]
テキスト駆動型3D画像合成フレームワークを提案する。
具体的には、ポートレートスタイルのプロンプトに対して、3D対応のGANジェネレータとテキストガイド画像エディタを合成する。
そして、このセットの特殊スタイル領域を提案した3D潜在特徴生成器にマッピングし、与えられたスタイル情報を含む3D表現を得る。
論文 参考訳(メタデータ) (2023-06-27T12:23:04Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - AgileGAN3D: Few-Shot 3D Portrait Stylization by Augmented Transfer
Learning [80.67196184480754]
本稿では,3次元芸術的に魅力的な肖像画を詳細な幾何学で作成できる新しいフレームワークであるemphAgileGAN3Dを提案する。
新しいスタイリゼーションは、わずか (約20) の未完成の2D例で得られる。
われわれのパイプラインは、ユーザの写真を多様な3Dアートのポートレートに変える強力な能力を示している。
論文 参考訳(メタデータ) (2023-03-24T23:04:20Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - Structured 3D Features for Reconstructing Controllable Avatars [43.36074729431982]
パラメトリックな統計的メッシュ表面からサンプリングされた高密度な3次元点に画素整列画像特徴をプールする,新しい暗黙の3次元表現に基づくモデルであるStructured 3D Featuresを紹介する。
本研究では,S3Fモデルがモノクロ3D再構成やアルベド,シェーディング推定など,これまでの課題を超越していることを示す。
論文 参考訳(メタデータ) (2022-12-13T18:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。