論文の概要: Paying U-Attention to Textures: Multi-Stage Hourglass Vision Transformer
for Universal Texture Synthesis
- arxiv url: http://arxiv.org/abs/2202.11703v1
- Date: Wed, 23 Feb 2022 18:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 16:25:59.856569
- Title: Paying U-Attention to Textures: Multi-Stage Hourglass Vision Transformer
for Universal Texture Synthesis
- Title(参考訳): テクスチャへのu-attention:ユニバーサルテクスチャ合成のためのマルチステージ砂時計ビジョントランスフォーマ
- Authors: Shouchang Guo, Valentin Deschaintre, Douglas Noll, Arthur Roullier
- Abstract要約: 汎用テクスチャ合成のための新しいU-Attention Vision Transformerを提案する。
注意機構によって実現された自然の長距離依存性を利用して,多様なテクスチャを合成する手法を提案する。
- 参考スコア(独自算出の注目度): 3.441021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel U-Attention vision Transformer for universal texture
synthesis. We exploit the natural long-range dependencies enabled by the
attention mechanism to allow our approach to synthesize diverse textures while
preserving their structures in a single inference. We propose a multi-stage
hourglass backbone that attends to the global structure and performs patch
mapping at varying scales in a coarse-to-fine-to-coarse stream. Further
completed by skip connection and convolution designs that propagate and fuse
information at different scales, our U-Attention architecture unifies attention
to microstructures, mesostructures and macrostructures, and progressively
refines synthesis results at successive stages. We show that our method
achieves stronger 2$\times$ synthesis than previous work on both stochastic and
structured textures while generalizing to unseen textures without fine-tuning.
Ablation studies demonstrate the effectiveness of each component of our
architecture.
- Abstract(参考訳): ユニバーサルテクスチャ合成のための新しいU-Attention Vision Transformerを提案する。
注意機構によって実現された自然の長距離依存性を利用して,その構造を単一の推論で保存しながら,多様なテクスチャを合成することができる。
本研究では,大域構造に対応する多段階の時計バックボーンを提案し,粗大から粗大のストリームにおいて,様々なスケールでパッチマッピングを行う。
さらに,異なるスケールで情報を伝播・融合する接続および畳み込み設計をスキップすることで,u-attentionアーキテクチャは,ミクロ組織,メソ構造,マクロ構造への注意を統一し,逐次的に合成結果を洗練する。
本手法は, 確率的, 構造的いずれのテクスチャにおいても従来よりも強い2$\times$合成を実現するとともに, 微調整を伴わない非知覚テクスチャに一般化できることを示す。
アブレーション研究は、アーキテクチャの各コンポーネントの有効性を示します。
関連論文リスト
- Generating Non-Stationary Textures using Self-Rectification [70.91414475376698]
本稿では,実例に基づく非定常テクスチャ合成の課題に対処する。
本稿では,ユーザが標準画像編集ツールを使用して参照テクスチャを初めて修正する,新しい2段階のアプローチを提案する。
提案手法は「自己修正(self-rectification)」と呼ばれ、このターゲットを自動的にコヒーレントでシームレスなテクスチャに洗練する。
論文 参考訳(メタデータ) (2024-01-05T15:07:05Z) - Consistent123: Improve Consistency for One Image to 3D Object Synthesis [74.1094516222327]
大規模な画像拡散モデルは、高品質で優れたゼロショット機能を備えた新規なビュー合成を可能にする。
これらのモデルは、ビュー一貫性の保証がなく、3D再構成や画像から3D生成といった下流タスクのパフォーマンスが制限される。
本稿では,新しい視点を同時に合成するConsistent123を提案する。
論文 参考訳(メタデータ) (2023-10-12T07:38:28Z) - Pyramid Texture Filtering [86.15126028139736]
目立った構造を保ちながらテクスチャをスムーズにするための,シンプルだが効果的な手法を提案する。
ガウスピラミッドの粗いレベルは、しばしば自然にテクスチャを排除し、主要な画像構造を要約する。
本手法は, 異なるスケール, 局所的なコントラスト, 形状のテクスチャから構造を分離する上で, 構造劣化や視覚的アーティファクトの導入を伴わずに有効であることを示す。
論文 参考訳(メタデータ) (2023-05-11T02:05:30Z) - A geometrically aware auto-encoder for multi-texture synthesis [1.2891210250935146]
マルチテクスチャ合成のための自動エンコーダアーキテクチャを提案する。
画像はコンパクトで幾何学的に整合した潜在空間に埋め込まれる。
テクスチャ合成とタスクは、これらの潜在コードから直接実行することができる。
論文 参考訳(メタデータ) (2023-02-03T09:28:39Z) - Towards Universal Texture Synthesis by Combining Texton Broadcasting
with Noise Injection in StyleGAN-2 [11.67779950826776]
本稿では,StyleGAN-2フレームワークのマルチスケールテキスト放送モジュールを取り入れた汎用テクスチャ合成手法を提案する。
テキスト放送モジュールは誘導バイアスを導入し、通常の構造を持つものから完全なものまで幅広いテクスチャを生成できる。
論文 参考訳(メタデータ) (2022-03-08T17:44:35Z) - Texture Reformer: Towards Fast and Universal Interactive Texture
Transfer [16.41438144343516]
テクスチャレコーダは、ユーザー特定ガイダンスを用いたインタラクティブなテクスチャ転送のためのニューラルネットワークベースのフレームワークである。
本稿では,新しいセマンティックマップ誘導戦略を取り入れた,学習不要なビュー固有テクスチャ修正(VSTR)操作を提案する。
様々なアプリケーションシナリオに関する実験結果は、我々のフレームワークの有効性と優位性を示している。
論文 参考訳(メタデータ) (2021-12-06T05:20:43Z) - Dynamic Texture Synthesis by Incorporating Long-range Spatial and
Temporal Correlations [27.247382497265214]
我々は、参照テクスチャビデオの構造的および長距離相関を捉えるために、Shifted Gram lossと呼ばれる新しい損失項を導入する。
また,複数フレーム間の長周期動作を利用したフレームサンプリング戦略も導入する。
論文 参考訳(メタデータ) (2021-04-13T05:04:51Z) - Transposer: Universal Texture Synthesis Using Feature Maps as Transposed
Convolution Filter [43.9258342767253]
テクスチャ合成に変換畳み込み演算を用いる新しい手法を提案する。
筆者らのフレームワークは,様々な指標に基づいて,最先端のテクスチャ合成品質を実現する。
論文 参考訳(メタデータ) (2020-07-14T17:57:59Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z) - Hierarchy Composition GAN for High-fidelity Image Synthesis [57.32311953820988]
本稿では,革新的階層構成GAN(HIC-GAN)を提案する。
HIC-GANは、幾何学と外観領域における画像合成をエンドツーエンドのトレーニング可能なネットワークに組み込んでいる。
シーンテキスト画像合成, 肖像画編集, 室内レンダリングタスクの実験により, 提案したHIC-GANは, 質的, 定量的に優れた合成性能が得られることを示した。
論文 参考訳(メタデータ) (2019-05-12T11:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。