論文の概要: Texture Representation via Analysis and Synthesis with Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2212.09983v1
- Date: Tue, 20 Dec 2022 03:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 16:25:53.340136
- Title: Texture Representation via Analysis and Synthesis with Generative
Adversarial Networks
- Title(参考訳): 生成逆ネットワークを用いた解析と合成によるテクスチャ表現
- Authors: Jue Lin, Gaurav Sharma, Thrasyvoulos N. Pappas
- Abstract要約: 本稿では,データ駆動型テクスチャモデリングを生成合成を用いた解析と合成により検討する。
合成にStyleGAN3を採用し、トレーニングデータに表される以上の多様なテクスチャを生成することを示した。
テクスチャ解析のために,合成テクスチャに対する新しい遅延整合性基準と,実際のテクスチャに対するグラミアンロスによる反復的改善を用いたGANを提案する。
- 参考スコア(独自算出の注目度): 11.67779950826776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate data-driven texture modeling via analysis and synthesis with
generative adversarial networks. For network training and testing, we have
compiled a diverse set of spatially homogeneous textures, ranging from
stochastic to regular. We adopt StyleGAN3 for synthesis and demonstrate that it
produces diverse textures beyond those represented in the training data. For
texture analysis, we propose GAN inversion using a novel latent domain
reconstruction consistency criterion for synthesized textures, and iterative
refinement with Gramian loss for real textures. We propose perceptual
procedures for evaluating network capabilities, exploring the global and local
behavior of latent space trajectories, and comparing with existing texture
analysis-synthesis techniques.
- Abstract(参考訳): 本稿では,データ駆動型テクスチャモデリングを,生成逆ネットワークを用いた解析と合成により検討する。
ネットワークトレーニングやテストでは,確率から規則に至るまで,空間的に均質なテクスチャを多種にまとめた。
stylegan3を合成に採用し,トレーニングデータに表される以上の多様なテクスチャを生成できることを実証した。
テクスチャ解析のために,合成テクスチャに対する新しい潜在ドメイン再構成整合性基準を用いたGANインバージョンと,実際のテクスチャに対するグラミアンロスによる反復的洗練を提案する。
本稿では,ネットワーク能力の評価,潜在空間軌跡のグローバルおよび局所的挙動の探索,および既存のテクスチャ解析合成技術との比較を行う。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - ConTex-Human: Free-View Rendering of Human from a Single Image with
Texture-Consistent Synthesis [49.28239918969784]
テクスチャに一貫性のあるバックビュー合成モジュールを導入し、参照画像コンテンツをバックビューに転送する。
また、テクスチャマッピングとリファインメントのための可視性対応パッチ整合性正規化と、合成したバックビューテクスチャの組み合わせを提案する。
論文 参考訳(メタデータ) (2023-11-28T13:55:53Z) - Neural Textured Deformable Meshes for Robust Analysis-by-Synthesis [17.920305227880245]
本稿では, 近似解析を用いた三重視覚タスクを一貫した方法で定式化する。
実世界の画像で評価すると、従来のニューラルネットワークよりも、我々の分析バイシンセシスの方がはるかに堅牢であることが示される。
論文 参考訳(メタデータ) (2023-05-31T18:45:02Z) - Towards Universal Texture Synthesis by Combining Texton Broadcasting
with Noise Injection in StyleGAN-2 [11.67779950826776]
本稿では,StyleGAN-2フレームワークのマルチスケールテキスト放送モジュールを取り入れた汎用テクスチャ合成手法を提案する。
テキスト放送モジュールは誘導バイアスを導入し、通常の構造を持つものから完全なものまで幅広いテクスチャを生成できる。
論文 参考訳(メタデータ) (2022-03-08T17:44:35Z) - Image Synthesis via Semantic Composition [74.68191130898805]
本稿では,その意味的レイアウトに基づいて現実的なイメージを合成する新しい手法を提案する。
類似した外観を持つ物体に対して、類似した表現を共有するという仮説が立てられている。
本手法は, 空間的変化と関連表現の両方を生じる, 外観相関による領域間の依存関係を確立する。
論文 参考訳(メタデータ) (2021-09-15T02:26:07Z) - Semi-supervised Synthesis of High-Resolution Editable Textures for 3D
Humans [14.098628848491147]
半教師付き構成で3次元メッシュの多彩な高忠実度テクスチャマップを生成する新しい手法を提案する。
テクスチャマップ内のセマンティクス領域のレイアウトを定義するセグメンテーションマスクを考えると、ネットワークはさまざまなスタイルで高解像度のテクスチャを生成し、レンダリング目的に使用されます。
論文 参考訳(メタデータ) (2021-03-31T17:58:34Z) - Synthetic Data and Hierarchical Object Detection in Overhead Imagery [0.0]
衛星画像における低・ゼロサンプル学習を向上させるための新しい合成データ生成および拡張技術を開発した。
合成画像の有効性を検証するために,検出モデルと2段階モデルの訓練を行い,実際の衛星画像上で得られたモデルを評価する。
論文 参考訳(メタデータ) (2021-01-29T22:52:47Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Co-occurrence Based Texture Synthesis [25.4878061402506]
本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
論文 参考訳(メタデータ) (2020-05-17T08:01:44Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。