論文の概要: Co-occurrence Based Texture Synthesis
- arxiv url: http://arxiv.org/abs/2005.08186v2
- Date: Wed, 22 Jul 2020 19:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:33:13.156103
- Title: Co-occurrence Based Texture Synthesis
- Title(参考訳): 共起型テクスチャ合成
- Authors: Anna Darzi, Itai Lang, Ashutosh Taklikar, Hadar Averbuch-Elor, Shai
Avidan
- Abstract要約: 本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
- 参考スコア(独自算出の注目度): 25.4878061402506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As image generation techniques mature, there is a growing interest in
explainable representations that are easy to understand and intuitive to
manipulate. In this work, we turn to co-occurrence statistics, which have long
been used for texture analysis, to learn a controllable texture synthesis
model. We propose a fully convolutional generative adversarial network,
conditioned locally on co-occurrence statistics, to generate arbitrarily large
images while having local, interpretable control over the texture appearance.
To encourage fidelity to the input condition, we introduce a novel
differentiable co-occurrence loss that is integrated seamlessly into our
framework in an end-to-end fashion. We demonstrate that our solution offers a
stable, intuitive and interpretable latent representation for texture
synthesis, which can be used to generate a smooth texture morph between
different textures. We further show an interactive texture tool that allows a
user to adjust local characteristics of the synthesized texture image using the
co-occurrence values directly.
- Abstract(参考訳): 画像生成技術が成熟するにつれて、理解しやすく、直感的に操作できる説明可能な表現への関心が高まっている。
本研究では,これまでテクスチャ解析に用いられてきた共起統計に目を向け,制御可能なテクスチャ合成モデルについて学習する。
テクスチャの外観を局所的に解釈可能制御しながら、任意に大きな画像を生成するために、共起統計に基づいて局所的に条件付けられた完全畳み込み生成対向ネットワークを提案する。
入力条件に対する忠実性を高めるために,我々は,エンドツーエンドでシームレスにフレームワークに統合された,新たな差別化可能な共起損失を導入する。
提案手法はテクスチャ合成のための安定で直感的かつ解釈可能な潜在表現を提供し,異なるテクスチャ間の滑らかなテクスチャ形態を生成できることを実証する。
さらに,合成テクスチャ画像の局所的特性を,共起値を用いて直接調整できる対話型テクスチャツールを提案する。
関連論文リスト
- Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - Neural Texture Puppeteer: A Framework for Neural Geometry and Texture
Rendering of Articulated Shapes, Enabling Re-Identification at Interactive
Speed [2.8544822698499255]
我々はニューラルテクスチュア Puppeteer と呼ぶテクスチャ化された形状のためのニューラルレンダリングパイプラインを提案する。
テクスチャオートエンコーダは、この情報を利用して、テクスチャ化された画像をグローバルな潜在コードにエンコードする。
本手法は,データに制限がある絶滅危惧種に適用できる。
論文 参考訳(メタデータ) (2023-11-28T10:51:05Z) - Texture Representation via Analysis and Synthesis with Generative
Adversarial Networks [11.67779950826776]
本稿では,データ駆動型テクスチャモデリングを生成合成を用いた解析と合成により検討する。
合成にStyleGAN3を採用し、トレーニングデータに表される以上の多様なテクスチャを生成することを示した。
テクスチャ解析のために,合成テクスチャに対する新しい遅延整合性基準と,実際のテクスチャに対するグラミアンロスによる反復的改善を用いたGANを提案する。
論文 参考訳(メタデータ) (2022-12-20T03:57:11Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps [3.504542161036043]
単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題にのみ焦点をあてた既存の方法とは対照的に,本研究は合成性とタイル性の両方に同時に取り組む。
論文 参考訳(メタデータ) (2022-01-13T18:24:26Z) - Image Synthesis via Semantic Composition [74.68191130898805]
本稿では,その意味的レイアウトに基づいて現実的なイメージを合成する新しい手法を提案する。
類似した外観を持つ物体に対して、類似した表現を共有するという仮説が立てられている。
本手法は, 空間的変化と関連表現の両方を生じる, 外観相関による領域間の依存関係を確立する。
論文 参考訳(メタデータ) (2021-09-15T02:26:07Z) - Texture Generation with Neural Cellular Automata [64.70093734012121]
一つのテンプレート画像からテクスチャジェネレータを学習する。
NCAモデルで示される振る舞いは、テクスチャを生成するための学習された分散されたローカルアルゴリズムであると主張します。
論文 参考訳(メタデータ) (2021-05-15T22:05:46Z) - Transposer: Universal Texture Synthesis Using Feature Maps as Transposed
Convolution Filter [43.9258342767253]
テクスチャ合成に変換畳み込み演算を用いる新しい手法を提案する。
筆者らのフレームワークは,様々な指標に基づいて,最先端のテクスチャ合成品質を実現する。
論文 参考訳(メタデータ) (2020-07-14T17:57:59Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。