論文の概要: Semi-Supervised Representative Region Texture Extraction of Fa\c{c}ade
- arxiv url: http://arxiv.org/abs/2212.02220v1
- Date: Mon, 5 Dec 2022 12:54:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 17:44:37.069484
- Title: Semi-Supervised Representative Region Texture Extraction of Fa\c{c}ade
- Title(参考訳): fa\c{c}adeの半教師あり代表領域テクスチャ抽出
- Authors: Zhen Ni, Guitao Cao, Ye Duan
- Abstract要約: ファサード画像から代表領域のテクスチャ抽出を行う半教師付き手法を提案する。
我々の方法は、セマンティック情報が与えられる限り、追加のラベル付きデータをトレーニングする必要がない。
様々なファサード画像に対して本手法の有効性を検証するとともに,本手法が性能改善に寄与していることを示す。
- 参考スコア(独自算出の注目度): 5.947772814445798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researches of analysis and parsing around fa\c{c}ades to enrich the 3D
feature of fa\c{c}ade models by semantic information raised some attention in
the community, whose main idea is to generate higher resolution components with
similar shapes and textures to increase the overall resolution at the expense
of reconstruction accuracy. While this approach works well for components like
windows and doors, there is no solution for fa\c{c}ade background at present.
In this paper, we introduce the concept of representative region texture, which
can be used in the above modeling approach by tiling the representative texture
around the fa\c{c}ade region, and propose a semi-supervised way to do
representative region texture extraction from a fa\c{c}ade image. Our method
does not require any additional labelled data to train as long as the semantic
information is given, while a traditional end-to-end model requires plenty of
data to increase its performance. Our method can extract texture from any
repetitive images, not just fa\c{c}ade, which is not capable in an end-to-end
model as it relies on the distribution of training set. Clustering with
weighted distance is introduced to further increase the robustness to noise or
an imprecise segmentation, and make the extracted texture have a higher
resolution and more suitable for tiling. We verify our method on various
fa\c{c}ade images, and the result shows our method has a significant
performance improvement compared to only a random crop on fa\c{c}ade. We also
demonstrate some application scenarios and proposed a fa\c{c}ade modeling
workflow with the representative region texture, which has a better visual
resolution for a regular fa\c{c}ade.
- Abstract(参考訳): 意味情報によるfa\c{c}adeモデルの3次元特徴を豊かにするためにfa\c{c}adeの解析と解析の研究がコミュニティで注目され、その主な目的は、類似した形状とテクスチャを持つ高分解能成分を生成し、再構築精度を犠牲にして全体の分解能を高めることである。
このアプローチはウィンドウやドアのようなコンポーネントではうまく機能するが、現在、fa\c{c}adeのバックグラウンドに対する解決策はない。
本稿では,fa\c{c}ade領域の周囲の代表的なテクスチャをタイリングすることで,上記のモデリング手法で利用できる代表領域テクスチャの概念を紹介し,fa\c{c}ade領域の画像から代表領域テクスチャを抽出する半教師付き手法を提案する。
従来のエンド・ツー・エンド・モデルでは性能向上のために大量のデータを必要とするが,本手法ではセマンティック情報を提供する限り,追加のラベル付きデータをトレーニングする必要はない。
本手法は, トレーニングセットの分布に依存するため, エンド・ツー・エンドモデルでは不可能であるfa\c{c}adeだけでなく, 反復画像からテクスチャを抽出することができる。
重み付き距離のクラスタリングを導入して、ノイズや不正確なセグメンテーションに対するロバスト性をさらに高め、抽出したテクスチャをより高分解能でタイリングに適したものにする。
様々なfa\c{c}ade画像に対して本手法の有効性を検証するとともに,fa\c{c}ade上でのランダムな作物に比べて,本手法が顕著な性能向上を示した。
また,いくつかのアプリケーションシナリオを実演し,代表的な領域テクスチャを用いたfa\c{c}adeモデリングワークフローを提案した。
関連論文リスト
- DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - Coherent and Multi-modality Image Inpainting via Latent Space Optimization [61.99406669027195]
PILOT(intextbfPainting vtextbfIa textbfOptextbfTimization)は、新しいテキストセマンティック中央化とテキストセマンティック保存損失に基づく最適化手法である。
本手法は,背景とのコヒーレンスを維持しつつ,ユーザが提供するプロンプトに対して高い忠実度を示す塗装領域を生成できる潜時空間を探索する。
論文 参考訳(メタデータ) (2024-07-10T19:58:04Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - On the Effect of Image Resolution on Semantic Segmentation [27.115235051091663]
本研究では,高分解能セグメンテーションを直接生成できるモデルが,より複雑なシステムの性能と一致することを示す。
提案手法は,ボトムアップ情報伝搬手法を様々なスケールで活用する。
先進的なセマンティックセグメンテーションデータセットを用いて,本手法を厳格に検証した。
論文 参考訳(メタデータ) (2024-02-08T04:21:30Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - Semi-supervised Synthesis of High-Resolution Editable Textures for 3D
Humans [14.098628848491147]
半教師付き構成で3次元メッシュの多彩な高忠実度テクスチャマップを生成する新しい手法を提案する。
テクスチャマップ内のセマンティクス領域のレイアウトを定義するセグメンテーションマスクを考えると、ネットワークはさまざまなスタイルで高解像度のテクスチャを生成し、レンダリング目的に使用されます。
論文 参考訳(メタデータ) (2021-03-31T17:58:34Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - AlphaNet: An Attention Guided Deep Network for Automatic Image Matting [0.0]
本研究では,画像マッチングのためのエンドツーエンドソリューション,すなわち自然画像から前景オブジェクトを高精度に抽出する手法を提案する。
本稿では,セマンティックセグメンテーションと深層画像マッチングプロセスをひとつのネットワークに同化して意味行列を生成する手法を提案する。
また、高品質なアルファマットを用いたファッションeコマース型データセットを構築し、画像マッチングのトレーニングと評価を容易にする。
論文 参考訳(メタデータ) (2020-03-07T17:25:21Z) - FakeLocator: Robust Localization of GAN-Based Face Manipulations [19.233930372590226]
本稿では,FakeLocatorと呼ばれる新しいアプローチを提案する。
これは、GANベースのフェイクローカライゼーション問題をグレースケールのフェイクネスマップで解決する最初の試みである。
人気の高いFaceForensics++,DFFDデータセット,および7種類の最先端のGANベースの顔生成手法による実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-01-27T06:15:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。