論文の概要: CoCosNet v2: Full-Resolution Correspondence Learning for Image
Translation
- arxiv url: http://arxiv.org/abs/2012.02047v2
- Date: Tue, 30 Mar 2021 07:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:53:46.827811
- Title: CoCosNet v2: Full-Resolution Correspondence Learning for Image
Translation
- Title(参考訳): CoCosNet v2: 画像翻訳のための完全解対応学習
- Authors: Xingran Zhou, Bo Zhang, Ting Zhang, Pan Zhang, Jianmin Bao, Dong Chen,
Zhongfei Zhang, Fang Wen
- Abstract要約: 粗いレベルからの対応を利用して、細かなレベルを導く階層戦略を提案する。
提案したCoCosNet v2は、GRU支援のPatchMatchアプローチであり、完全に微分可能で、非常に効率的である。
多様な翻訳タスクの実験により、CoCosNet v2は高解像度画像の生成において最先端の文献よりもかなり優れた性能を示した。
- 参考スコア(独自算出の注目度): 43.175148260926235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the full-resolution correspondence learning for cross-domain
images, which aids image translation. We adopt a hierarchical strategy that
uses the correspondence from coarse level to guide the fine levels. At each
hierarchy, the correspondence can be efficiently computed via PatchMatch that
iteratively leverages the matchings from the neighborhood. Within each
PatchMatch iteration, the ConvGRU module is employed to refine the current
correspondence considering not only the matchings of larger context but also
the historic estimates. The proposed CoCosNet v2, a GRU-assisted PatchMatch
approach, is fully differentiable and highly efficient. When jointly trained
with image translation, full-resolution semantic correspondence can be
established in an unsupervised manner, which in turn facilitates the
exemplar-based image translation. Experiments on diverse translation tasks show
that CoCosNet v2 performs considerably better than state-of-the-art literature
on producing high-resolution images.
- Abstract(参考訳): 本稿では,画像翻訳を支援するクロスドメイン画像の完全対応学習について述べる。
我々は,粗いレベルからの対応を用いて細かなレベルを導く階層的戦略を採用する。
各階層では、近隣からのマッチングを反復的に活用するPatchMatchを介して、効率よく対応を計算できる。
各PatchMatchイテレーションにおいて、ConvGRUモジュールは、より大きなコンテキストのマッチングだけでなく、過去の推定値も考慮して、現在の対応を洗練するために使用される。
提案したCoCosNet v2は、GRU支援のPatchMatchアプローチであり、完全に微分可能で、非常に効率的である。
画像翻訳と共同で訓練すると、教師なしの方法で完全な意味対応が確立され、結果として、模範的な画像翻訳が容易になる。
多様な翻訳タスクの実験により、CoCosNet v2は高解像度画像の生成において最先端の文献よりもかなり優れた性能を示した。
関連論文リスト
- Improving fine-grained understanding in image-text pre-training [37.163228122323865]
SPARse Fine-fine Contrastive Alignment (SPARC) は、画像とテキストのペアからよりきめ細かなマルチモーダル表現を事前学習する簡単な方法である。
粗い情報に依存した画像レベルのタスクに対して、競合するアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-18T10:28:45Z) - Efficient Token-Guided Image-Text Retrieval with Consistent Multimodal
Contrastive Training [33.78990448307792]
画像テキスト検索は、視覚と言語間の意味的関係を理解するための中心的な問題である。
以前の作品では、全体像とテキストの粗い粒度の表現を単に学習するか、画像領域またはピクセルとテキストワードの対応を精巧に確立する。
本研究では、粗い表現学習ときめ細かい表現学習を統一した枠組みに組み合わせて、新しい視点から画像テキストの検索を行う。
論文 参考訳(メタデータ) (2023-06-15T00:19:13Z) - Masked and Adaptive Transformer for Exemplar Based Image Translation [16.93344592811513]
ドメイン間のセマンティックマッチングは難しい。
正確なクロスドメイン対応を学習するためのマスク付き適応変換器(MAT)を提案する。
品質識別型スタイル表現を得るための新しいコントラスト型スタイル学習法を考案する。
論文 参考訳(メタデータ) (2023-03-30T03:21:14Z) - Pretraining is All You Need for Image-to-Image Translation [59.43151345732397]
画像から画像への一般的な翻訳を促進するために,事前学習を使うことを提案する。
提案した事前学習型画像画像変換(PITI)は,前例のないリアリズムと忠実さのイメージを合成できることを示す。
論文 参考訳(メタデータ) (2022-05-25T17:58:26Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。