論文の概要: A geometrically aware auto-encoder for multi-texture synthesis
- arxiv url: http://arxiv.org/abs/2302.01616v3
- Date: Thu, 29 Jun 2023 12:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 16:53:52.593074
- Title: A geometrically aware auto-encoder for multi-texture synthesis
- Title(参考訳): 多テクスチャ合成のための幾何学的自動エンコーダ
- Authors: Pierrick Chatillon, Yann Gousseau, Sidonie Lefebvre
- Abstract要約: マルチテクスチャ合成のための自動エンコーダアーキテクチャを提案する。
画像はコンパクトで幾何学的に整合した潜在空間に埋め込まれる。
テクスチャ合成とタスクは、これらの潜在コードから直接実行することができる。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an auto-encoder architecture for multi-texture synthesis. The
approach relies on both a compact encoder accounting for second order neural
statistics and a generator incorporating adaptive periodic content. Images are
embedded in a compact and geometrically consistent latent space, where the
texture representation and its spatial organisation are disentangled. Texture
synthesis and interpolation tasks can be performed directly from these latent
codes. Our experiments demonstrate that our model outperforms state-of-the-art
feed-forward methods in terms of visual quality and various texture related
metrics.
- Abstract(参考訳): マルチテクスチャ合成のための自動エンコーダアーキテクチャを提案する。
このアプローチは、第2次ニューラルネットワーク統計のためのコンパクトエンコーダと、適応的周期的コンテンツを含むジェネレータの両方に依存する。
画像はコンパクトで幾何学的に整合した潜在空間に埋め込まれ、テクスチャ表現とその空間的組織は切り離されている。
テクスチャ合成と補間タスクは、これらの潜在コードから直接行うことができる。
実験により,我々のモデルは,視覚的品質および各種テクスチャ関連指標の観点から,最先端のフィードフォワード法より優れていることが示された。
関連論文リスト
- Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Paying U-Attention to Textures: Multi-Stage Hourglass Vision Transformer for Universal Texture Synthesis [2.8998926117101367]
ユニバーサルテクスチャ合成のための新しいU-Attention Vision Transformerを提案する。
注意機構によって実現された自然の長距離依存性を利用して,多様なテクスチャを合成する手法を提案する。
本研究では,グローバルな構造に参画し,様々なスケールでパッチマッピングを行う階層型時計バックボーンを提案する。
論文 参考訳(メタデータ) (2022-02-23T18:58:56Z) - SeamlessGAN: Self-Supervised Synthesis of Tileable Texture Maps [3.504542161036043]
単一入力例からタイル状テクスチャマップを自動生成できるSeamlessGANを提案する。
合成問題にのみ焦点をあてた既存の方法とは対照的に,本研究は合成性とタイル性の両方に同時に取り組む。
論文 参考訳(メタデータ) (2022-01-13T18:24:26Z) - Cycle-Consistent Inverse GAN for Text-to-Image Synthesis [101.97397967958722]
本稿では,テキスト・ツー・イメージ・ジェネレーションとテキスト・ガイドによる画像操作を行うために,Cycle-Consistent Inverse GANの統一フレームワークを提案する。
我々は、GANの反転モデルを学び、画像をGANの潜在空間に変換し、各画像の反転潜在符号を得る。
テキスト誘導最適化モジュールでは、反転潜在符号を最適化することにより、所望のセマンティック属性を持つ画像を生成する。
論文 参考訳(メタデータ) (2021-08-03T08:38:16Z) - Dynamic Texture Recognition via Nuclear Distances on Kernelized
Scattering Histogram Spaces [95.21606283608683]
本研究では,動的テクスチャをScattering変換を用いて計算したフレームワイド特徴ベクトルのカーネル空間として記述することを提案する。
これらの空間を基底不変距離と組み合わせることで、最も近い近傍分類の競合結果と、最も近いクラス中心分類の最先端結果を生成する枠組みを得る。
論文 参考訳(メタデータ) (2021-02-01T13:54:24Z) - Conceptual Compression via Deep Structure and Texture Synthesis [42.68994438290913]
本稿では,視覚データをコンパクトな構造とテクスチャ表現にエンコードし,深層合成方式でデコードする,新しい概念圧縮フレームワークを提案する。
特に,2つの相補的な視覚特徴からなる二重層モデルを用いて画像の圧縮を提案する。
エンコーダ側では、構造地図とテクスチャ表現を個別に抽出して圧縮し、コンパクトで解釈可能な、相互運用可能なビットストリームを生成する。
復号段階では, 階層的融合GAN (HF-GAN) が提案され, テクスチャがデコードされた構造写像に描画される合成パラダイムを学習し, 高品質な再構成を実現する。
論文 参考訳(メタデータ) (2020-11-10T08:48:32Z) - Co-occurrence Based Texture Synthesis [25.4878061402506]
本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
論文 参考訳(メタデータ) (2020-05-17T08:01:44Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z) - Hierarchy Composition GAN for High-fidelity Image Synthesis [57.32311953820988]
本稿では,革新的階層構成GAN(HIC-GAN)を提案する。
HIC-GANは、幾何学と外観領域における画像合成をエンドツーエンドのトレーニング可能なネットワークに組み込んでいる。
シーンテキスト画像合成, 肖像画編集, 室内レンダリングタスクの実験により, 提案したHIC-GANは, 質的, 定量的に優れた合成性能が得られることを示した。
論文 参考訳(メタデータ) (2019-05-12T11:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。