論文の概要: Photo style transfer with consistency losses
- arxiv url: http://arxiv.org/abs/2005.04408v1
- Date: Sat, 9 May 2020 09:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 07:00:59.839559
- Title: Photo style transfer with consistency losses
- Title(参考訳): 一貫性損失を伴うフォトスタイル転送
- Authors: Xu Yao, Gilles Puy, Patrick P\'erez
- Abstract要約: 1枚の深層畳み込みネットワーク(畳み込みネットワーク)をトレーニングし、それぞれが1枚の写真のスタイルをもう1つの写真に転送する。
光リアリズムを実現するために,サイクル一貫性損失と自己一貫性損失を組み合わせたコンテンツ保存機構を導入する。
ネットワークパラメータの小さなサブセットだけをリトレーニングすることは、これらの共振器を新しいスタイルに適応するのに十分であることを示す。
- 参考スコア(独自算出の注目度): 5.844015313757267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of style transfer between two photos and propose a new
way to preserve photorealism. Using the single pair of photos available as
input, we train a pair of deep convolution networks (convnets), each of which
transfers the style of one photo to the other. To enforce photorealism, we
introduce a content preserving mechanism by combining a cycle-consistency loss
with a self-consistency loss. Experimental results show that this method does
not suffer from typical artifacts observed in methods working in the same
settings. We then further analyze some properties of these trained convnets.
First, we notice that they can be used to stylize other unseen images with same
known style. Second, we show that retraining only a small subset of the network
parameters can be sufficient to adapt these convnets to new styles.
- Abstract(参考訳): 2枚の写真間のスタイル転送の問題に対処し,フォトリアリズムの新たな保存方法を提案する。
入力として利用可能な1対の写真を使用して、深層畳み込みネットワーク(convnet)をトレーニングし、それぞれが1つの写真のスタイルをもう1つの写真に転送する。
光リアリズムを実現するために,サイクル一貫性損失と自己一貫性損失を組み合わせたコンテンツ保存機構を導入する。
実験結果から,本手法は同一設定で作業する手法で観察される典型的な工芸品に支障を来さないことが明らかとなった。
次に、これらのトレーニングされたconvnetの特性についてさらに分析する。
まず、他の見えない画像を同じスタイルでスタイリングすることができることに気付きました。
第2に、ネットワークパラメータのごく一部だけを再トレーニングすることで、これらのconvnetを新しいスタイルに適応できることを示す。
関連論文リスト
- Zero-Shot Contrastive Loss for Text-Guided Diffusion Image Style
Transfer [38.957512116073616]
我々は、追加の微調整や補助的なネットワークを必要としない拡散モデルに対して、ゼロショットのコントラスト損失を提案する。
本手法は,ゼロショット方式で,ソース画像と同一のセマンティックな内容の画像を生成できる。
論文 参考訳(メタデータ) (2023-03-15T13:47:02Z) - ColoristaNet for Photorealistic Video Style Transfer [15.38024996795316]
フォトリアリスティックなスタイル転送は、フォトリアリスティックを維持しながら、画像の芸術的なスタイルを入力画像やビデオに転送することを目的としている。
スタイル除去部とスタイル復元部を含む自己教師型スタイル転送フレームワークを提案する。
実験により、ColoristaNetは最先端のアルゴリズムと比較して、より優れたスタイリング効果が得られることが示された。
論文 参考訳(メタデータ) (2022-12-19T04:49:26Z) - Improving the Latent Space of Image Style Transfer [24.37383949267162]
事前訓練されたエンコーダの特徴統計は、私たちが認識した視覚的スタイルと一致しない場合もある。
そのような不適切な潜在空間では、既存の手法の目的関数は間違った方向に最適化される。
本稿では,この課題に適合する洗練されたエンコーダを得るための2つの対照的な訓練手法を提案する。
論文 参考訳(メタデータ) (2022-05-24T15:13:01Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Contrastive Feature Loss for Image Prediction [55.373404869092866]
教師付き画像合成モデルのトレーニングでは、批評家は2つの画像を比較する必要がある。
本稿では,2つの画像間の類似度を測定するための情報理論に基づくアプローチを提案する。
この定式化により,L1損失の代替として,出力画像の知覚的リアリズムが向上することを示す。
論文 参考訳(メタデータ) (2021-11-12T20:39:52Z) - The Spatially-Correlative Loss for Various Image Translation Tasks [69.62228639870114]
シーン構造の一貫性を保つために、シンプルで効率的かつ効果的な新しい空間相関損失を提案します。
以前の方法は、ピクセルレベルのサイクル一貫性または特徴レベルのマッチング損失を使用してこれを試みます。
I2I翻訳の3つのモードすべてにおいて,ベースラインモデルに対して,単一モーダル,マルチモーダル,さらには単一イメージ翻訳において,明確な改善が見られた。
論文 参考訳(メタデータ) (2021-04-02T02:13:30Z) - You Only Look Yourself: Unsupervised and Untrained Single Image Dehazing
Neural Network [63.2086502120071]
地中清浄画像(教師なし)と画像収集(訓練なし)を訓練することなく、深層学習が画像脱ハージングを実現する方法について検討する。
教師なしニューラルネットワークは、ヘイジークリーンなイメージペアの集中的な労働力を回避し、トレーニングされていないモデルは、真のシングルイメージデハージングアプローチである。
層解離のアイデアに触発されて、イメージデハージングのための最初の教師なし、訓練されていないニューラルネットワークの1つになり得る、あなただけ(textbfYOLY)と呼ばれる新しい方法を提案する。
論文 参考訳(メタデータ) (2020-06-30T14:05:47Z) - Unsupervised Landmark Learning from Unpaired Data [117.81440795184587]
教師なしランドマーク学習の最近の試みは、外観は似ているがポーズでは異なる合成画像対を活用する。
本稿では,2回スワッピング・リコンストラクション・ストラテジーを適用して最終監視を行うクロスイメージ・サイクル整合性フレームワークを提案する。
提案するフレームワークは,強いベースラインを大きなマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-06-29T13:57:20Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。