論文の概要: Co-occurrence Based Texture Synthesis
- arxiv url: http://arxiv.org/abs/2005.08186v2
- Date: Wed, 22 Jul 2020 19:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:33:13.156103
- Title: Co-occurrence Based Texture Synthesis
- Title(参考訳): 共起型テクスチャ合成
- Authors: Anna Darzi, Itai Lang, Ashutosh Taklikar, Hadar Averbuch-Elor, Shai
Avidan
- Abstract要約: 本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
- 参考スコア(独自算出の注目度): 25.4878061402506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As image generation techniques mature, there is a growing interest in
explainable representations that are easy to understand and intuitive to
manipulate. In this work, we turn to co-occurrence statistics, which have long
been used for texture analysis, to learn a controllable texture synthesis
model. We propose a fully convolutional generative adversarial network,
conditioned locally on co-occurrence statistics, to generate arbitrarily large
images while having local, interpretable control over the texture appearance.
To encourage fidelity to the input condition, we introduce a novel
differentiable co-occurrence loss that is integrated seamlessly into our
framework in an end-to-end fashion. We demonstrate that our solution offers a
stable, intuitive and interpretable latent representation for texture
synthesis, which can be used to generate a smooth texture morph between
different textures. We further show an interactive texture tool that allows a
user to adjust local characteristics of the synthesized texture image using the
co-occurrence values directly.
- Abstract(参考訳): 画像生成技術が成熟するにつれて、理解しやすく、直感的に操作できる説明可能な表現への関心が高まっている。
本研究では,これまでテクスチャ解析に用いられてきた共起統計に目を向け,制御可能なテクスチャ合成モデルについて学習する。
テクスチャの外観を局所的に解釈可能制御しながら、任意に大きな画像を生成するために、共起統計に基づいて局所的に条件付けられた完全畳み込み生成対向ネットワークを提案する。
入力条件に対する忠実性を高めるために,我々は,エンドツーエンドでシームレスにフレームワークに統合された,新たな差別化可能な共起損失を導入する。
提案手法はテクスチャ合成のための安定で直感的かつ解釈可能な潜在表現を提供し,異なるテクスチャ間の滑らかなテクスチャ形態を生成できることを実証する。
さらに,合成テクスチャ画像の局所的特性を,共起値を用いて直接調整できる対話型テクスチャツールを提案する。
関連論文リスト
- Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - Compositional Neural Textures [25.885557234297835]
この研究は、合成ニューラルモデルを用いてテクスチャを表現するための、完全に教師なしのアプローチを導入する。
我々は,各テキストを,空間的支持がその形状を近似する2次元ガウス関数と,その詳細な外観を符号化する関連する特徴として表現する。
このアプローチは、画像テクスチャから他のイメージへの外観の移動、テクスチャの多様化、テクスチャのバリエーションの明示/修正、編集の伝播、テクスチャアニメーション、ダイレクトテキスト操作など、幅広いアプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-04-18T21:09:34Z) - Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - Texture Representation via Analysis and Synthesis with Generative
Adversarial Networks [11.67779950826776]
本稿では,データ駆動型テクスチャモデリングを生成合成を用いた解析と合成により検討する。
合成にStyleGAN3を採用し、トレーニングデータに表される以上の多様なテクスチャを生成することを示した。
テクスチャ解析のために,合成テクスチャに対する新しい遅延整合性基準と,実際のテクスチャに対するグラミアンロスによる反復的改善を用いたGANを提案する。
論文 参考訳(メタデータ) (2022-12-20T03:57:11Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Texture Generation with Neural Cellular Automata [64.70093734012121]
一つのテンプレート画像からテクスチャジェネレータを学習する。
NCAモデルで示される振る舞いは、テクスチャを生成するための学習された分散されたローカルアルゴリズムであると主張します。
論文 参考訳(メタデータ) (2021-05-15T22:05:46Z) - Transposer: Universal Texture Synthesis Using Feature Maps as Transposed
Convolution Filter [43.9258342767253]
テクスチャ合成に変換畳み込み演算を用いる新しい手法を提案する。
筆者らのフレームワークは,様々な指標に基づいて,最先端のテクスチャ合成品質を実現する。
論文 参考訳(メタデータ) (2020-07-14T17:57:59Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。