論文の概要: Learning in a Single Domain for Non-Stationary Multi-Texture Synthesis
- arxiv url: http://arxiv.org/abs/2305.06200v2
- Date: Wed, 6 Sep 2023 04:16:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 19:08:46.531823
- Title: Learning in a Single Domain for Non-Stationary Multi-Texture Synthesis
- Title(参考訳): 非定常マルチテキスト合成のための単一ドメイン学習
- Authors: Xudong Xie, Zhen Zhu, Zijie Wu, Zhiliang Xu, Yingying Zhu
- Abstract要約: 非定常テクスチャは大規模な分散を持ち、1つのモデルではほとんど合成できない。
様々なスケールの構造パターンを捕捉し,テクスチャを低コストで効果的に合成するマルチスケールジェネレータを提案する。
特定のドメインのテクスチャパターンの学習に焦点をあてるカテゴリ特化学習戦略を提案する。
- 参考スコア(独自算出の注目度): 9.213030142986417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims for a new generation task: non-stationary multi-texture
synthesis, which unifies synthesizing multiple non-stationary textures in a
single model. Most non-stationary textures have large scale variance and can
hardly be synthesized through one model. To combat this, we propose a
multi-scale generator to capture structural patterns of various scales and
effectively synthesize textures with a minor cost. However, it is still hard to
handle textures of different categories with different texture patterns.
Therefore, we present a category-specific training strategy to focus on
learning texture pattern of a specific domain. Interestingly, once trained, our
model is able to produce multi-pattern generations with dynamic variations
without the need to finetune the model for different styles. Moreover, an
objective evaluation metric is designed for evaluating the quality of texture
expansion and global structure consistency. To our knowledge, ours is the first
scheme for this challenging task, including model, training, and evaluation.
Experimental results demonstrate the proposed method achieves superior
performance and time efficiency. The code will be available after the
publication.
- Abstract(参考訳): 本稿では,複数の非定常テクスチャを1つのモデルで合成する,非定常多テクスチャ合成という新しい世代課題を提案する。
ほとんどの非定常テクスチャは大規模な分散を持ち、1つのモデルでは合成できない。
そこで本研究では,様々なスケールの構造パターンを捕捉し,少ないコストでテクスチャを効果的に合成するマルチスケール発電機を提案する。
しかし,様々なカテゴリーのテクスチャを異なるテクスチャパターンで扱うことは依然として困難である。
そこで本研究では,特定のドメインのテクスチャパターンを学習することに焦点を当てた,カテゴリ固有のトレーニング戦略を提案する。
興味深いことに、一度訓練されたモデルでは、異なるスタイルのモデルを微調整することなく、動的に変化するマルチパターン世代を生成できる。
さらに、テクスチャ展開の質とグローバル構造整合性を評価するための客観的評価指標を設計する。
私たちの知識では、モデル、トレーニング、評価を含む、この挑戦的なタスクの最初のスキームです。
実験により,提案手法が優れた性能と時間効率を実現することを示す。
コードは公開後利用可能になる。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Style-Hallucinated Dual Consistency Learning for Domain Generalized
Semantic Segmentation [117.3856882511919]
本稿では、ドメインシフトを処理するためのStyle-HAllucinated Dual consistEncy Learning(SHADE)フレームワークを提案する。
SHADEは3つの実世界のデータセットの平均mIoUに対して5.07%と8.35%の精度で改善し、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-04-06T02:49:06Z) - SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps [3.504542161036043]
単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題にのみ焦点をあてた既存の方法とは対照的に,本研究は合成性とタイル性の両方に同時に取り組む。
論文 参考訳(メタデータ) (2022-01-13T18:24:26Z) - Texture synthesis via projection onto multiscale, multilayer statistics [0.0]
マルチスケール多層特徴抽出器に基づくテクスチャ合成の新しいモデルを提案する。
本稿では,本モデルで使用する異なる種類のウェーブレットフィルタの必要性と,画像合成における多層構造の有用性について説明する。
論文 参考訳(メタデータ) (2021-05-22T23:32:34Z) - Texture Generation with Neural Cellular Automata [64.70093734012121]
一つのテンプレート画像からテクスチャジェネレータを学習する。
NCAモデルで示される振る舞いは、テクスチャを生成するための学習された分散されたローカルアルゴリズムであると主張します。
論文 参考訳(メタデータ) (2021-05-15T22:05:46Z) - MTCRNN: A multi-scale RNN for directed audio texture synthesis [0.0]
本稿では,異なる抽象レベルで訓練された繰り返しニューラルネットワークと,ユーザ指向の合成を可能にする条件付け戦略を組み合わせたテクスチャのモデリング手法を提案する。
モデルの性能を様々なデータセットで実証し、その性能を様々なメトリクスで検証し、潜在的なアプリケーションについて議論する。
論文 参考訳(メタデータ) (2020-11-25T09:13:53Z) - A Generative Model for Texture Synthesis based on Optimal Transport
between Feature Distributions [8.102785819558978]
任意の大きさの新しいテクスチャをオンザフライで合成できるフィードフォワードニューラルネットワークを、我々のフレームワークを使って学習する方法を示す。
我々のフレームワークを使ってフィードフォワードニューラルネットワークを学習し、任意のサイズの新しいテクスチャを高速に合成する方法を示します。
論文 参考訳(メタデータ) (2020-06-19T13:32:55Z) - Learning Texture Invariant Representation for Domain Adaptation of
Semantic Segmentation [19.617821473205694]
合成データで訓練されたモデルが実際のデータに一般化することは困難である。
我々はスタイル伝達アルゴリズムを用いて合成画像のテクスチャを多様性する。
我々は、ターゲットテクスチャを直接監視するために、自己学習でモデルを微調整する。
論文 参考訳(メタデータ) (2020-03-02T13:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。