論文の概要: Image Style Transfer and Content-Style Disentanglement
- arxiv url: http://arxiv.org/abs/2111.15624v1
- Date: Thu, 25 Nov 2021 01:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 01:34:12.194145
- Title: Image Style Transfer and Content-Style Disentanglement
- Title(参考訳): 画像スタイル転送とコンテンツスタイルの絡み合い
- Authors: Sailun Xu, Jiazhi Zhang, Jiamei Liu
- Abstract要約: 本稿では,画像を任意のスタイルに外挿したり,任意のスタイル間の補間を行うことのできる,非絡み合ったコンテンツスタイルのイメージ表現の学習方法を提案する。
教師付き設定でデータセットを増設し、三重項損失を与えることにより、コンテンツとスタイル表現によって符号化された情報の分離を確実にする。
- 参考スコア(独自算出の注目度): 0.8146528700243738
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose a way of learning disentangled content-style representation of
image, allowing us to extrapolate images to any style as well as interpolate
between any pair of styles. By augmenting data set in a supervised setting and
imposing triplet loss, we ensure the separation of information encoded by
content and style representation. We also make use of cycle-consistency loss to
guarantee that images could be reconstructed faithfully by their
representation.
- Abstract(参考訳): 画像の絡み合ったコンテンツスタイルの表現を学習する方法を提案し、任意のスタイルにイメージを外挿したり、任意のスタイル間で補間したりできる。
教師付き設定でデータセットを増設し、三重項損失を与えることにより、コンテンツとスタイル表現によって符号化された情報の分離を確保する。
また,その表現によって画像が忠実に再構成できることを保証するために,サイクルコンシスタンスロスを利用する。
関連論文リスト
- InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - Style-Aware Contrastive Learning for Multi-Style Image Captioning [36.1319565907582]
我々は、スタイルに関連のある潜在的な視覚コンテンツをマイニングするために、コントラスト学習を備えたスタイル認識型ビジュアルエンコーダを提案する。
また、画像、スタイル、キャプションが一致したかどうかを識別するために、スタイル対応のコントラスト目標を提案する。
実験により,本手法が最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-01-26T19:21:39Z) - Edge Enhanced Image Style Transfer via Transformers [6.666912981102909]
任意のイメージスタイルの転送が ますます注目を集めています
コンテンツの詳細とスタイル機能のトレードオフを同時に維持することは困難です。
画像スタイルの転送とエッジロスのための新しい変換器ベースのSTTを提案する。
論文 参考訳(メタデータ) (2023-01-02T10:39:31Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Diffusion-based Image Translation using Disentangled Style and Content
Representation [51.188396199083336]
セマンティックテキストや単一のターゲット画像でガイドされた拡散ベースの画像変換により、柔軟なスタイル変換が可能になった。
逆拡散中、画像の原内容を維持することはしばしば困難である。
本稿では,不整合スタイルとコンテンツ表現を用いた新しい拡散に基づく教師なし画像翻訳手法を提案する。
提案手法は,テキスト誘導と画像誘導の両方の翻訳作業において,最先端のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-30T06:44:37Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Diverse Image Captioning with Grounded Style [19.434931809979282]
我々はCOCOアノテーションから多種多様な字幕を抽出するためのCOCOベースの拡張を提案する。
本研究では,変分オートエンコーダの潜時空間におけるスタイリング情報を符号化する。
SenticapとCOCOデータセットの実験は、正確なキャプションを生成するためのアプローチの能力を示している。
論文 参考訳(メタデータ) (2022-05-03T22:57:59Z) - STALP: Style Transfer with Auxiliary Limited Pairing [36.23393954839379]
本稿では,1対のソース画像と,そのスタイリング画像を用いた画像の例ベーススタイリング手法を提案する。
本研究では,対象画像に対するリアルタイムな意味論的スタイル転送が可能な画像翻訳ネットワークの訓練方法を示す。
論文 参考訳(メタデータ) (2021-10-20T11:38:41Z) - SSH: A Self-Supervised Framework for Image Harmonization [97.16345684998788]
我々は、編集せずに「自由」な自然画像だけで訓練できる新しい自己改善調和フレームワーク(SSH)を提案する。
提案したSSHは,基準指標,視覚的品質,主観的ユーザスタディにおいて,従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-08-15T19:51:33Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。