論文の概要: Image-Driven Furniture Style for Interactive 3D Scene Modeling
- arxiv url: http://arxiv.org/abs/2010.10557v1
- Date: Tue, 20 Oct 2020 18:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:45:50.400477
- Title: Image-Driven Furniture Style for Interactive 3D Scene Modeling
- Title(参考訳): インタラクティブな3次元シーンモデリングのための画像駆動家具スタイル
- Authors: Tomer Weiss, Ilkay Yildiz, Nitin Agarwal, Esra Ataer-Cansizoglu,
Jae-Woo Choi
- Abstract要約: 内部スタイルは、色、幾何学、その他の視覚要素を含む規則に従う。
室内のシーン画像から家具のスタイル適合性を学習し,スタイル類似性タスクを高速に追跡する手法を提案する。
提案手法は,複数の3次元モデルスタイル適合性結果と,スタイル一貫性シーンをモデル化するための対話型システムを用いて実証する。
- 参考スコア(独自算出の注目度): 8.8561720398658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating realistic styled spaces is a complex task, which involves design
know-how for what furniture pieces go well together. Interior style follows
abstract rules involving color, geometry and other visual elements. Following
such rules, users manually select similar-style items from large repositories
of 3D furniture models, a process which is both laborious and time-consuming.
We propose a method for fast-tracking style-similarity tasks, by learning a
furniture's style-compatibility from interior scene images. Such images contain
more style information than images depicting single furniture. To understand
style, we train a deep learning network on a classification task. Based on
image embeddings extracted from our network, we measure stylistic compatibility
of furniture. We demonstrate our method with several 3D model
style-compatibility results, and with an interactive system for modeling
style-consistent scenes.
- Abstract(参考訳): リアルなスタイルの空間を作るのは複雑な作業で、家具の組み立てのノウハウをデザインする。
内部スタイルは、色、幾何学、その他の視覚要素を含む抽象的な規則に従う。
このようなルールに従うと、ユーザは3D家具モデルの大規模なリポジトリから同様のアイテムを手作業で選択する。
室内のシーン画像から家具のスタイル適合性を学習し,スタイル類似性タスクを高速に追跡する手法を提案する。
これらの画像は、単一の家具を描いたものよりも多くのスタイル情報を含んでいる。
スタイルを理解するために,分類タスクでディープラーニングネットワークを訓練する。
ネットワークから抽出した画像埋め込みに基づいて,家具のスタイリスティックな互換性を測定する。
提案手法は,複数の3次元モデルスタイル適合性結果と,スタイル一貫性シーンをモデル化するためのインタラクティブシステムを用いて実証する。
関連論文リスト
- Towards Multi-View Consistent Style Transfer with One-Step Diffusion via Vision Conditioning [12.43848969320173]
提案手法により生成した異なる視点からのスティル化画像は、構造的整合性が良く、歪みも少ない、優れた視覚的品質を実現する。
本手法は,3次元情報のないスタイリング画像における構造情報と多視点整合性を効果的に保存する。
論文 参考訳(メタデータ) (2024-11-15T12:02:07Z) - Implicit Style-Content Separation using B-LoRA [61.664293840163865]
一つの画像のスタイルとコンテンツコンポーネントを暗黙的に分離する手法であるB-LoRAを紹介する。
SDXLのアーキテクチャをLoRAと組み合わせて解析することにより、2つのブロックのLoRA重みを共同で学習することで、スタイル・コンテント分離を実現する。
論文 参考訳(メタデータ) (2024-03-21T17:20:21Z) - Style-Consistent 3D Indoor Scene Synthesis with Decoupled Objects [84.45345829270626]
制御可能な3D屋内シーン合成は、技術進歩の最前線にある。
シーンスタイリングの現在の手法は、シーン全体にスタイルを適用することに限定されている。
室内3Dシーンを合成するためのユニークなパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-24T03:10:36Z) - RoomDesigner: Encoding Anchor-latents for Style-consistent and
Shape-compatible Indoor Scene Generation [26.906174238830474]
室内シーン生成は、空間的に合理的なレイアウトで形状に整合したスタイルの家具配置を作成することを目的としている。
家具をアンカーラテント表現としてエンコードすることで,形状先行を室内シーン生成に組み込む2段階モデルを提案する。
論文 参考訳(メタデータ) (2023-10-16T03:05:19Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - CLIP-Layout: Style-Consistent Indoor Scene Synthesis with Semantic
Furniture Embedding [17.053844262654223]
室内シーンの合成は、家具をフロアプランに適切にピックして配置する。
本稿では,インスタンスレベルの予測を出力できる自動回帰シーンモデルを提案する。
我々のモデルはシーン合成におけるSOTAの結果を達成し、自動補完の指標を50%以上改善する。
論文 参考訳(メタデータ) (2023-03-07T00:26:02Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - BlobGAN: Spatially Disentangled Scene Representations [67.60387150586375]
本研究では,シーン生成モデルのための教師なし中間レベル表現を提案する。
この表現は、ピクセル単位でもイメージ単位でもなく、むしろ空間的に、奥行き順に並べられた特徴の「ブロブ」の集合としてモデル化されている。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - StyleMesh: Style Transfer for Indoor 3D Scene Reconstructions [11.153966202832933]
屋内シーンのメッシュ再構成にスタイル転送を適用する。
これにより、お気に入りのアーティストのスタイルで描かれた3D環境を体験するといったVRアプリケーションが可能になる。
論文 参考訳(メタデータ) (2021-12-02T18:59:59Z) - 3D Photo Stylization: Learning to Generate Stylized Novel Views from a
Single Image [26.71747401875526]
スタイル転送と2つの代表的なタスクとしてのシングルイメージの3D写真は、これまで独立して進化してきた。
シーンのポイントクラウド表現からテクスチャ化のための幾何学的コンテンツ特徴を学習する深層モデルを提案する。
本研究では,定性的・定量的研究を通じて,本手法の優位性を実証する。
論文 参考訳(メタデータ) (2021-11-30T23:27:10Z) - SLIDE: Single Image 3D Photography with Soft Layering and Depth-aware
Inpainting [54.419266357283966]
シングルイメージの3D写真は、視聴者が新しい視点から静止画を見ることを可能にする。
最近のアプローチでは、単分子深度ネットワークと塗装ネットワークを組み合わせることで、説得力のある結果が得られる。
単一画像3D撮影のためのモジュール・統一システムであるSLIDEについて述べる。
論文 参考訳(メタデータ) (2021-09-02T16:37:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。