論文の概要: CAP-VSTNet: Content Affinity Preserved Versatile Style Transfer
- arxiv url: http://arxiv.org/abs/2303.17867v1
- Date: Fri, 31 Mar 2023 08:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 15:01:39.572759
- Title: CAP-VSTNet: Content Affinity Preserved Versatile Style Transfer
- Title(参考訳): CAP-VSTNet:コンテンツ親和性保存型バーサタイルスタイル転送
- Authors: Linfeng Wen, Chengying Gao, Changqing Zou
- Abstract要約: 本稿では,新しい可逆残差ネットワークと非バイアス線形変換モジュールからなるCAP-VSTNetというフレームワークを提案する。
提案するフレームワークは,多目的なスタイル転送に適用可能であり,有効である。
- 参考スコア(独自算出の注目度): 16.157802004045127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Content affinity loss including feature and pixel affinity is a main problem
which leads to artifacts in photorealistic and video style transfer. This paper
proposes a new framework named CAP-VSTNet, which consists of a new reversible
residual network and an unbiased linear transform module, for versatile style
transfer. This reversible residual network can not only preserve content
affinity but not introduce redundant information as traditional reversible
networks, and hence facilitate better stylization. Empowered by Matting
Laplacian training loss which can address the pixel affinity loss problem led
by the linear transform, the proposed framework is applicable and effective on
versatile style transfer. Extensive experiments show that CAP-VSTNet can
produce better qualitative and quantitative results in comparison with the
state-of-the-art methods.
- Abstract(参考訳): 機能やピクセル親和性を含むコンテンツ親和性損失は、フォトリアリスティックやビデオスタイル転送のアーティファクトにつながる主要な問題である。
本稿では,新しい可逆残差ネットワークと非バイアス線形変換モジュールで構成されるcap-vstnetという新しいフレームワークを提案する。
この可逆的残余ネットワークは、コンテンツ親和性を保持するだけでなく、従来の可逆的ネットワークとして冗長な情報を導入せず、より優れたスタイリングを容易にする。
線形変換によるピクセル親和性損失問題に対処可能なラプラシアントレーニングロスのマット化により,提案手法が適用可能であり,多彩なスタイル転送に有効である。
広範な実験により、CAP-VSTNetは最先端の手法と比較して質的で定量的な結果が得られることが示された。
関連論文リスト
- UniVST: A Unified Framework for Training-free Localized Video Style Transfer [66.69471376934034]
ローカライズドビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングは不要で、ビデオ全体にわたってスタイルを転送する既存の方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - Improving the Transferability of Adversarial Examples with Arbitrary
Style Transfer [32.644062141738246]
スタイル転送ネットワークは、人間の意味的内容を保持しながら、画像内の低レベルの視覚的特徴の分布を変更することができる。
本稿では、任意のスタイル転送ネットワークを用いて、画像を異なる領域に変換する新たな攻撃手法であるStyle Transfer Method (STM)を提案する。
提案手法は、通常訓練されたモデルまたは逆訓練されたモデルにおいて、逆変換性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-08-21T09:58:13Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Invertible Rescaling Network and Its Extensions [118.72015270085535]
本研究では,新たな視点から双方向の劣化と復元をモデル化する,新しい可逆的枠組みを提案する。
我々は、有効な劣化画像を生成し、失われたコンテンツの分布を変換する可逆モデルを開発する。
そして、ランダムに描画された潜在変数とともに、生成された劣化画像に逆変換を適用することにより、復元可能とする。
論文 参考訳(メタデータ) (2022-10-09T06:58:58Z) - CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer [58.020470877242865]
我々は,芸術的,写真的,映像的スタイルのトランスファーを共同で行うことができる汎用的なスタイルトランスファー手法を考案した。
我々は,グローバル不整合が局所的不整合に支配されているという軽度かつ合理的な仮定を定め,局所的パッチに適用した汎用的コントラストコヒーレンス保存損失(CCPL)を考案する。
CCPLは、スタイル化を低下させることなく、スタイル転送中のコンテンツソースのコヒーレンスを保存することができる。
論文 参考訳(メタデータ) (2022-07-11T12:09:41Z) - DeepRLS: A Recurrent Network Architecture with Least Squares Implicit
Layers for Non-blind Image Deconvolution [15.986942312624]
非盲点画像デコンボリューションの問題について検討する。
本稿では,画像品質の非常に競争力のある復元結果をもたらす新しい再帰的ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-10T13:16:51Z) - MIST-net: Multi-domain Integrative Swin Transformer network for
Sparse-View CT Reconstruction [6.620837759518855]
スパースビューデータ再構成は、典型的な過小評価された逆問題の一つである。
マルチドメイン統合スウィントランスネットワーク(MIST-net)を提案する。
48ビューの数値データセットを用いた実験により,提案したMIST-netにより画像品質が向上した。
論文 参考訳(メタデータ) (2021-11-28T14:43:26Z) - Rethinking and Improving the Robustness of Image Style Transfer [70.86976598145111]
トレーニング済みのVGGネットワークによって抽出された特徴間の相関は、画像の視覚的スタイルをキャプチャする顕著な能力を有することを示す。
この品質は堅牢ではなく、より先進的で軽量なネットワークの機能に適用すると、しばしば大幅に劣化する。
本稿では,そのエントロピーを高める機能アクティベーションのソフトマックス変換に基づく解を提案する。
論文 参考訳(メタデータ) (2021-04-08T03:24:45Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。