論文の概要: Texture Reformer: Towards Fast and Universal Interactive Texture
Transfer
- arxiv url: http://arxiv.org/abs/2112.02788v1
- Date: Mon, 6 Dec 2021 05:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 07:07:57.997221
- Title: Texture Reformer: Towards Fast and Universal Interactive Texture
Transfer
- Title(参考訳): テクスチャリニューアル : 高速かつユニバーサルなインタラクティブテクスチャ転送を目指して
- Authors: Zhizhong Wang, Lei Zhao, Haibo Chen, Ailin Li, Zhiwen Zuo, Wei Xing,
Dongming Lu
- Abstract要約: テクスチャレコーダは、ユーザー特定ガイダンスを用いたインタラクティブなテクスチャ転送のためのニューラルネットワークベースのフレームワークである。
本稿では,新しいセマンティックマップ誘導戦略を取り入れた,学習不要なビュー固有テクスチャ修正(VSTR)操作を提案する。
様々なアプリケーションシナリオに関する実験結果は、我々のフレームワークの有効性と優位性を示している。
- 参考スコア(独自算出の注目度): 16.41438144343516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present the texture reformer, a fast and universal
neural-based framework for interactive texture transfer with user-specified
guidance. The challenges lie in three aspects: 1) the diversity of tasks, 2)
the simplicity of guidance maps, and 3) the execution efficiency. To address
these challenges, our key idea is to use a novel feed-forward multi-view and
multi-stage synthesis procedure consisting of I) a global view structure
alignment stage, II) a local view texture refinement stage, and III) a holistic
effect enhancement stage to synthesize high-quality results with coherent
structures and fine texture details in a coarse-to-fine fashion. In addition,
we also introduce a novel learning-free view-specific texture reformation
(VSTR) operation with a new semantic map guidance strategy to achieve more
accurate semantic-guided and structure-preserved texture transfer. The
experimental results on a variety of application scenarios demonstrate the
effectiveness and superiority of our framework. And compared with the
state-of-the-art interactive texture transfer algorithms, it not only achieves
higher quality results but, more remarkably, also is 2-5 orders of magnitude
faster. Code is available at https://github.com/EndyWon/Texture-Reformer.
- Abstract(参考訳): 本稿では,対話型テクスチャ転送のための高速で普遍的なニューラルネットワークフレームワークであるテクスチャリフォームについて述べる。
課題は3つの側面にあります
1)タスクの多様性。
2)案内地図の単純さ,および
3) 実行効率。
これらの課題に対処するために,我々は,i)グローバルビュー構造アライメントステージ,ii)ローカルビューテクスチャリファインメントステージ,iii)コヒーレントな構造と微細なテクスチャディテールで高品質な結果を合成する全体論的効果強化ステージからなる,新しいフィードフォワード・マルチビュー・マルチステージ合成手法を提案する。
さらに、より正確な意味誘導と構造保存のテクスチャ転送を実現するために、新しいセマンティックマップガイダンス戦略を備えた学習不要なビュー固有テクスチャ修正(VSTR)操作を導入する。
様々なアプリケーションシナリオの実験結果は、我々のフレームワークの有効性と優位性を示している。
そして、最先端のインタラクティブテクスチャ転送アルゴリズムと比較すると、高品質な結果を得るだけでなく、2~5桁の高速化を実現している。
コードはhttps://github.com/EndyWon/Texture-Reformerで入手できる。
関連論文リスト
- Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - InTeX: Interactive Text-to-texture Synthesis via Unified Depth-aware Inpainting [46.330305910974246]
InteXはインタラクティブなテキスト・テクスチャ合成のための新しいフレームワークである。
InteXにはユーザフレンドリーなインターフェースが含まれており、合成プロセス全体を通してインタラクションと制御を容易にする。
本研究では,奥行き情報と塗り絵情報を統合する深度認識型塗り絵モデルを構築し,効果的に3次元不整合を緩和する。
論文 参考訳(メタデータ) (2024-03-18T15:31:57Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Towards Universal Texture Synthesis by Combining Texton Broadcasting
with Noise Injection in StyleGAN-2 [11.67779950826776]
本稿では,StyleGAN-2フレームワークのマルチスケールテキスト放送モジュールを取り入れた汎用テクスチャ合成手法を提案する。
テキスト放送モジュールは誘導バイアスを導入し、通常の構造を持つものから完全なものまで幅広いテクスチャを生成できる。
論文 参考訳(メタデータ) (2022-03-08T17:44:35Z) - Paying U-Attention to Textures: Multi-Stage Hourglass Vision Transformer for Universal Texture Synthesis [2.8998926117101367]
ユニバーサルテクスチャ合成のための新しいU-Attention Vision Transformerを提案する。
注意機構によって実現された自然の長距離依存性を利用して,多様なテクスチャを合成する手法を提案する。
本研究では,グローバルな構造に参画し,様々なスケールでパッチマッピングを行う階層型時計バックボーンを提案する。
論文 参考訳(メタデータ) (2022-02-23T18:58:56Z) - Image Inpainting via Conditional Texture and Structure Dual Generation [26.97159780261334]
本稿では, 構造制約によるテクスチャ合成とテクスチャ誘導による構造再構築をモデル化した, 画像インペイントのための新しい2ストリームネットワークを提案する。
グローバルな一貫性を高めるため、双方向Gated Feature Fusion (Bi-GFF)モジュールは構造情報とテクスチャ情報を交換・結合するように設計されている。
CelebA、Paris StreetView、Places2データセットの実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2021-08-22T15:44:37Z) - DF-GAN: A Simple and Effective Baseline for Text-to-Image Synthesis [80.54273334640285]
本稿では,異なる生成装置間の絡み合わずに高解像度画像を直接合成する,新しい1段階のテキスト・ツー・イメージバックボーンを提案する。
また,Matching-Aware Gradient Penalty と One-Way Output を組み合わせた新たなターゲット認識識別器を提案する。
現在の最先端手法と比較して,提案するDF-GANはよりシンプルだが,現実的およびテキストマッチング画像の合成には効率的である。
論文 参考訳(メタデータ) (2020-08-13T12:51:17Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。