論文の概要: Text2Scene: Text-driven Indoor Scene Stylization with Part-aware Details
- arxiv url: http://arxiv.org/abs/2308.16880v1
- Date: Thu, 31 Aug 2023 17:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 13:32:37.904621
- Title: Text2Scene: Text-driven Indoor Scene Stylization with Part-aware Details
- Title(参考訳): Text2Scene: パーツを意識したテキスト駆動型屋内スタイリング
- Authors: Inwoo Hwang, Hyeonwoo Kim, Young Min Kim
- Abstract要約: 複数のオブジェクトからなる仮想シーンの現実的なテクスチャを自動生成するText2Sceneを提案する。
我々のパイプラインは、室内のラベル付き3Dジオメトリに詳細なテクスチャを追加し、生成した色が、しばしば類似の材料から構成される階層構造や意味的な部分を尊重するようにします。
- 参考スコア(独自算出の注目度): 12.660352353074012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Text2Scene, a method to automatically create realistic textures
for virtual scenes composed of multiple objects. Guided by a reference image
and text descriptions, our pipeline adds detailed texture on labeled 3D
geometries in the room such that the generated colors respect the hierarchical
structure or semantic parts that are often composed of similar materials.
Instead of applying flat stylization on the entire scene at a single step, we
obtain weak semantic cues from geometric segmentation, which are further
clarified by assigning initial colors to segmented parts. Then we add texture
details for individual objects such that their projections on image space
exhibit feature embedding aligned with the embedding of the input. The
decomposition makes the entire pipeline tractable to a moderate amount of
computation resources and memory. As our framework utilizes the existing
resources of image and text embedding, it does not require dedicated datasets
with high-quality textures designed by skillful artists. To the best of our
knowledge, it is the first practical and scalable approach that can create
detailed and realistic textures of the desired style that maintain structural
context for scenes with multiple objects.
- Abstract(参考訳): 複数のオブジェクトからなる仮想シーンの現実的なテクスチャを自動生成するText2Sceneを提案する。
参照画像とテキスト記述に導かれたパイプラインでは,部屋内のラベル付き3dジオメトリに詳細なテクスチャを追加して,生成した色が,しばしば類似する材料で構成される階層構造や意味部品を尊重する。
1つのステップでシーン全体にフラットなスタイリングを適用する代わりに、幾何学的セグメンテーションから弱いセグメンテーションの手がかりを得る。
次に,個々のオブジェクトに対してテクスチャの詳細を付加し,画像空間上の投影が入力の埋め込みと整合した特徴埋め込みを示す。
この分解により、パイプライン全体が適度な量の計算リソースとメモリに牽引可能である。
我々のフレームワークは既存の画像やテキストの埋め込みの資源を利用するため、熟練アーティストがデザインした高品質なテクスチャを備えた専用のデータセットを必要としない。
私たちの知る限りでは、複数のオブジェクトを持つシーンの構造的コンテキストを維持するために、望ましいスタイルの詳細的で現実的なテクスチャを作成できる、初めての実用的でスケーラブルなアプローチです。
関連論文リスト
- RoomTex: Texturing Compositional Indoor Scenes via Iterative Inpainting [34.827355403635536]
本研究では,RoomTexと呼ばれる3次元シーンフレームワークを提案する。
RoomTexは、一貫性のないシーンメッシュのために、高忠実でスタイル一貫性のあるテクスチャを生成する。
本稿では,RGBとエッジ検出手法の整合性を維持することを提案する。
論文 参考訳(メタデータ) (2024-06-04T16:27:09Z) - Make-It-Vivid: Dressing Your Animatable Biped Cartoon Characters from Text [38.591390310534024]
入力命令に基づく漫画文字の自動テクスチャ設計に着目する。
これはドメイン固有の要件と高品質なデータの欠如にとって難しい。
UVテキストから高品質なテクスチャ生成を可能にする最初の試みとして,Make-ItViviを提案する。
論文 参考訳(メタデータ) (2024-03-25T16:08:04Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - DreamSpace: Dreaming Your Room Space with Text-Driven Panoramic Texture
Propagation [31.353409149640605]
本稿では没入型VR体験のための3次元テクスチャ生成のための新しいフレームワークを提案する。
生き残るために、我々は秘密の領域でテクスチャの手がかりを分け、現実世界の環境でネットワークテクスチャを学ぶ。
論文 参考訳(メタデータ) (2023-10-19T19:29:23Z) - LLM Blueprint: Enabling Text-to-Image Generation with Complex and
Detailed Prompts [60.54912319612113]
拡散に基づく生成モデルは、テキストと画像の生成が著しく進歩するが、長く複雑なテキストプロンプトを処理する際には困難に直面する。
本稿では,Large Language Models (LLM) を利用してテキストプロンプトから重要なコンポーネントを抽出する手法を提案する。
複数のオブジェクトを特徴とする複雑なプロンプトの評価は,ベースライン拡散モデルと比較して,リコールの大幅な改善を示す。
論文 参考訳(メタデータ) (2023-10-16T17:57:37Z) - Semantic Image Translation for Repairing the Texture Defects of Building
Models [16.764719266178655]
本稿では, ファサードテクスチャ画像の合成手法を提案する。
提案手法は,既存のテクスチャを欠いたファッケードに対して,テクスチャイメージを特定のスタイルで合成することも可能である。
論文 参考訳(メタデータ) (2023-03-30T14:38:53Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - SceneComposer: Any-Level Semantic Image Synthesis [80.55876413285587]
任意の精度のセマンティックレイアウトから条件付き画像合成のための新しいフレームワークを提案する。
このフレームワークは、形状情報のない最低レベルのテキスト・トゥ・イメージ(T2I)に自然に還元され、最高レベルのセグメンテーション・トゥ・イメージ(S2I)となる。
本稿では,この新たなセットアップの課題に対処する,新しいテクニックをいくつか紹介する。
論文 参考訳(メタデータ) (2022-11-21T18:59:05Z) - Image Inpainting Guided by Coherence Priors of Semantics and Textures [62.92586889409379]
セマンティクスとテクスチャ間のコヒーレンスプリエンスを導入することにより、セマンティクス的な方法で別々のテクスチャを完成させることに集中できる。
また,全体構造と詳細なテクスチャの観点から,セマンティクスとインペインテッドイメージの一貫性を制約する2つのコヒーレンス損失を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。