論文の概要: 3D PixBrush: Image-Guided Local Texture Synthesis
- arxiv url: http://arxiv.org/abs/2507.03731v1
- Date: Fri, 04 Jul 2025 17:38:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.855071
- Title: 3D PixBrush: Image-Guided Local Texture Synthesis
- Title(参考訳): 3D PixBrush:画像ガイドによる局所テクスチャ合成
- Authors: Dale Decatur, Itai Lang, Kfir Aberman, Rana Hanocka,
- Abstract要約: 3D PixBrushは、画像中の物体を忠実に描写する、局所化マスクと合成テクスチャを予測する。
本手法は,参照画像の形状に適合するマスクを生成する。
- 参考スコア(独自算出の注目度): 19.866883340848982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present 3D PixBrush, a method for performing image-driven edits of local regions on 3D meshes. 3D PixBrush predicts a localization mask and a synthesized texture that faithfully portray the object in the reference image. Our predicted localizations are both globally coherent and locally precise. Globally - our method contextualizes the object in the reference image and automatically positions it onto the input mesh. Locally - our method produces masks that conform to the geometry of the reference image. Notably, our method does not require any user input (in the form of scribbles or bounding boxes) to achieve accurate localizations. Instead, our method predicts a localization mask on the 3D mesh from scratch. To achieve this, we propose a modification to the score distillation sampling technique which incorporates both the predicted localization and the reference image, referred to as localization-modulated image guidance. We demonstrate the effectiveness of our proposed technique on a wide variety of meshes and images.
- Abstract(参考訳): 3Dメッシュ上で局所領域を画像駆動で編集する3D PixBrushを提案する。
3D PixBrushは、画像中の物体を忠実に描写する、局所化マスクと合成テクスチャを予測する。
予測されたローカライゼーションは、グローバルコヒーレントかつ局所的正確である。
グローバルに - 我々の手法は参照画像内のオブジェクトを文脈化し、自動的に入力メッシュに配置する。
局所的に - 本手法は参照画像の幾何学に適合するマスクを生成する。
特に,本手法では,正確なローカライゼーションを実現するために,ユーザ入力(スクリブルやバウンディングボックスの形式で)を一切必要としない。
その代わり,本手法は3次元メッシュ上の局所化マスクをスクラッチから予測する。
そこで本研究では,推定局所化と参照画像の両方を組み込んだスコア蒸留サンプリング手法を改良し,局所化変調画像誘導法を提案する。
提案手法が様々なメッシュや画像に対して有効であることを示す。
関連論文リスト
- Dream-in-Style: Text-to-3D Generation Using Stylized Score Distillation [14.079043195485601]
本稿では,3次元オブジェクトをスタイルで生成する手法を提案する。
本手法は,入力としてテキストプロンプトとスタイル参照画像を取り,ニューラルラディアンス場を再構成して3次元モデルを合成する。
論文 参考訳(メタデータ) (2024-06-05T16:27:34Z) - ShapeFusion: A 3D diffusion model for localized shape editing [37.82690898932135]
本研究では,任意の形状領域の局所的な操作を容易にする効果的な拡散マスキングトレーニング戦略を提案する。
現在の最先端技術と比較して、我々の手法は遅延コード状態に依存する方法よりも解釈可能な形状操作をもたらす。
論文 参考訳(メタデータ) (2024-03-28T18:50:19Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - 3D Paintbrush: Local Stylization of 3D Shapes with Cascaded Score
Distillation [21.703142822709466]
3D Paintbrushは、テキスト記述を通じてメッシュ上のセマンティックリージョンを自動的に局所化するテクニックである。
本手法はメッシュ上で直接動作し,テクスチャマップをシームレスに生成するように設計されている。
論文 参考訳(メタデータ) (2023-11-16T05:13:44Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - Generating Texture for 3D Human Avatar from a Single Image using
Sampling and Refinement Networks [8.659903550327442]
幾何学情報を組み込んだ3次元アバターのテクスチャ合成法を提案する。
サンプルネットワークは、ソース画像の隠蔽領域を埋め、テクスチャをターゲット3Dメッシュの表面と整列させる。
与えられた画像の鮮明な詳細を維持するため、サンプリングされたテクスチャと精製されたテクスチャを混合して最終テクスチャマップを生成する。
論文 参考訳(メタデータ) (2023-05-01T16:44:02Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Realistic Image Synthesis with Configurable 3D Scene Layouts [59.872657806747576]
本稿では,3次元シーンレイアウトに基づくリアルな画像合成手法を提案する。
提案手法では, セマンティッククラスラベルを入力として3Dシーンを抽出し, 3Dシーンの描画ネットワークを訓練する。
訓練された絵画ネットワークにより、入力された3Dシーンのリアルな外観の画像を描画し、操作することができる。
論文 参考訳(メタデータ) (2021-08-23T09:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。