論文の概要: CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer
- arxiv url: http://arxiv.org/abs/2207.04808v1
- Date: Mon, 11 Jul 2022 12:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 14:51:24.248303
- Title: CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer
- Title(参考訳): CCPL:Versatileスタイル転送におけるコントラストコヒーレンス保護
- Authors: Zijie Wu, Zhen Zhu, Junping Du and Xiang Bai
- Abstract要約: 我々は,芸術的,写真的,映像的スタイルのトランスファーを共同で行うことができる汎用的なスタイルトランスファー手法を考案した。
我々は,グローバル不整合が局所的不整合に支配されているという軽度かつ合理的な仮定を定め,局所的パッチに適用した汎用的コントラストコヒーレンス保存損失(CCPL)を考案する。
CCPLは、スタイル化を低下させることなく、スタイル転送中のコンテンツソースのコヒーレンスを保存することができる。
- 参考スコア(独自算出の注目度): 58.020470877242865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we aim to devise a universally versatile style transfer method
capable of performing artistic, photo-realistic, and video style transfer
jointly, without seeing videos during training. Previous single-frame methods
assume a strong constraint on the whole image to maintain temporal consistency,
which could be violated in many cases. Instead, we make a mild and reasonable
assumption that global inconsistency is dominated by local inconsistencies and
devise a generic Contrastive Coherence Preserving Loss (CCPL) applied to local
patches. CCPL can preserve the coherence of the content source during style
transfer without degrading stylization. Moreover, it owns a neighbor-regulating
mechanism, resulting in a vast reduction of local distortions and considerable
visual quality improvement. Aside from its superior performance on versatile
style transfer, it can be easily extended to other tasks, such as
image-to-image translation. Besides, to better fuse content and style features,
we propose Simple Covariance Transformation (SCT) to effectively align
second-order statistics of the content feature with the style feature.
Experiments demonstrate the effectiveness of the resulting model for versatile
style transfer, when armed with CCPL.
- Abstract(参考訳): 本稿では,トレーニング中に映像を見ることなく,芸術的,写真的,映像的スタイルの同時転送が可能な汎用的なスタイル転送手法を提案する。
従来の単一フレーム法は、時間的一貫性を維持するために画像全体に強い制約を課しており、多くのケースで違反する可能性がある。
代わりに、グローバル不整合が局所的不整合に支配されているという軽微で合理的な仮定をし、局所的パッチに適用された一般的なコントラストコヒーレンス保存損失(CCPL)を考案する。
ccplはスタイライゼーションを損なうことなく、スタイル転送中にコンテンツソースの一貫性を保つことができる。
さらに、隣接する調節機構を持ち、局所的な歪みが大幅に減少し、視覚品質が大幅に向上する。
万能なスタイル転送における優れたパフォーマンスとは別に、画像から画像への変換など他のタスクにも容易に拡張できる。
さらに,コンテンツとスタイル機能を融合させるため,コンテンツ特徴の2次統計をスタイル特徴と効果的に整合させる簡易共分散変換(sct)を提案する。
CCPLを用いた多目的移動モデルの有効性を示す実験を行った。
関連論文リスト
- UniVST: A Unified Framework for Training-free Localized Video Style Transfer [66.69471376934034]
ローカライズドビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングは不要で、ビデオ全体にわたってスタイルを転送する既存の方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - Beyond Entropy: Style Transfer Guided Single Image Continual Test-Time
Adaptation [1.6497679785422956]
BESTTAは,スタイル転送によって導かれる新しい単一画像連続テスト時間適応法である。
我々は,BESTTAが連続的に変化するターゲット環境に効果的に適応できることを示し,単一の画像のみを活用する。
注目すべきは、BeIN層で最小メモリを消費するパラメータが2つしかないにもかかわらず、BESTTAはパフォーマンス面で既存の最先端メソッドよりも優れていることだ。
論文 参考訳(メタデータ) (2023-11-30T06:14:24Z) - Universal Photorealistic Style Transfer: A Lightweight and Adaptive Approach [18.46446576915766]
フォトリアリスティックなスタイル転送は、入力コンテンツのリアリズムと構造を保ちながら、スタイリゼーションを適用することを目的としている。
本稿では,高解像度画像やビデオに高精度なフォトリアリスティックスタイル転送を実現するユニバーサルフォトリアリスティックスタイル転送フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T07:04:40Z) - Master: Meta Style Transformer for Controllable Zero-Shot and Few-Shot
Artistic Style Transfer [83.1333306079676]
本稿では,スタイル転送に特化した新しいトランスフォーマーモデルであるemphMasterを考案する。
提案モデルでは, 異なるトランスフォーマー層が共通のパラメータ群を共有し, 1) パラメータの総数を減らし, (2) より堅牢なトレーニング収束をもたらし, (3) は容易にスタイリングの程度を制御できる。
実験では、ゼロショットと少数ショットスタイルの転送設定の両方でMasterの優位性を示す。
論文 参考訳(メタデータ) (2023-04-24T04:46:39Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Bi-level Feature Alignment for Versatile Image Translation and
Manipulation [88.5915443957795]
GAN(Generative Adversarial Network)は画像翻訳と操作において大きな成功を収めている。
忠実なスタイル制御を備えた高忠実な画像生成は、コンピュータビジョンにおいて依然として大きな課題である。
本稿では,高精度なセマンティック・スタイル・ガイダンスを実現する多機能な画像翻訳・操作フレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-07T05:26:29Z) - Arbitrary Video Style Transfer via Multi-Channel Correlation [84.75377967652753]
本稿では,マルチチャネル補正ネットワーク(MCCNet)を提案する。
MCCNetは、スタイルとコンテンツドメインの機能空間で直接動作する。
MCCが生成した出力は所望のスタイルパターンを含む特徴であり、鮮やかなスタイルのテクスチャでさらに画像にデコードできる。
論文 参考訳(メタデータ) (2020-09-17T01:30:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。