論文の概要: DeepObjStyle: Deep Object-based Photo Style Transfer
- arxiv url: http://arxiv.org/abs/2012.06498v1
- Date: Fri, 11 Dec 2020 17:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 05:39:16.315422
- Title: DeepObjStyle: Deep Object-based Photo Style Transfer
- Title(参考訳): DeepObjStyle:ディープオブジェクトベースの写真スタイル転送
- Authors: Indra Deep Mastan and Shanmuganathan Raman
- Abstract要約: スタイル転送の大きな課題の1つは、出力画像と入力画像(スタイルとコンテンツ)の間の適切な画像特徴の監督である。
トレーニングデータに依存しないフレームワークにおけるスタイル管理のためのオブジェクトベースのスタイル転送手法であるDeepStyleを提案する。
- 参考スコア(独自算出の注目度): 31.75300124593133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the major challenges of style transfer is the appropriate image
features supervision between the output image and the input (style and content)
images. An efficient strategy would be to define an object map between the
objects of the style and the content images. However, such a mapping is not
well established when there are semantic objects of different types and numbers
in the style and the content images. It also leads to content mismatch in the
style transfer output, which could reduce the visual quality of the results. We
propose an object-based style transfer approach, called DeepObjStyle, for the
style supervision in the training data-independent framework. DeepObjStyle
preserves the semantics of the objects and achieves better style transfer in
the challenging scenario when the style and the content images have a mismatch
of image features. We also perform style transfer of images containing a word
cloud to demonstrate that DeepObjStyle enables an appropriate image features
supervision. We validate the results using quantitative comparisons and user
studies.
- Abstract(参考訳): スタイル転送の大きな課題の1つは、出力画像と入力画像(スタイルとコンテンツ)の間の適切な画像特徴の監督である。
効率的な戦略は、スタイルのオブジェクトとコンテンツイメージの間のオブジェクトマップを定義することである。
しかし、スタイルやコンテンツイメージに異なる型や数値のセマンティックオブジェクトが存在する場合、そのようなマッピングは十分に確立されていない。
また、スタイル転送出力のコンテンツミスマッチが発生し、結果の視覚的品質が低下する可能性がある。
本稿では、データ独立フレームワークのトレーニングにおいて、スタイルを監督するための、deepobjstyleと呼ばれるオブジェクトベースのスタイル転送手法を提案する。
DeepObjStyleは、オブジェクトのセマンティクスを保存し、スタイルとコンテンツイメージがイメージ機能のミスマッチを持つ場合、難しいシナリオにおいて、より良いスタイル転送を実現する。
また、単語クラウドを含む画像のスタイル転送を行い、DeepObjStyleが適切な画像特徴監視を可能にすることを示す。
定量的比較とユーザスタディを用いて結果を検証する。
関連論文リスト
- Measuring Style Similarity in Diffusion Models [118.22433042873136]
画像からスタイル記述子を理解し抽出するためのフレームワークを提案する。
我々のフレームワークは、スタイルが画像の主観的特性であるという洞察を用いてキュレートされた新しいデータセットで構成されている。
また、テキスト・ツー・イメージ・モデルのトレーニングデータセットで使用される画像に対して、生成した画像のスタイルに使用できるスタイル属性記述子を抽出する手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T17:58:30Z) - Soulstyler: Using Large Language Model to Guide Image Style Transfer for
Target Object [9.759321877363258]
Soulstylerを使えば、ユーザーは簡単なテキスト記述を通じて画像中の特定のオブジェクトのスタイル化をガイドできる。
テキストを解析し、スタイル化の目標と特定のスタイルを特定するために、大きな言語モデルを導入する。
また,特定の対象オブジェクトに対してのみスタイル転送が行われることを保証する,新たなローカライズされたテキストイメージブロックマッチング損失を導入する。
論文 参考訳(メタデータ) (2023-11-22T18:15:43Z) - MOSAIC: Multi-Object Segmented Arbitrary Stylization Using CLIP [0.0]
テキストによって駆動されるスタイル転送は、実際のスタイルイメージを収集することなく、創造的に画像をスタイリングするための新しいパスを舗装した。
入力プロンプトから抽出したコンテキストに基づいて、画像内の異なるオブジェクトにスタイルを適用することができるCLIP(MOSAIC)を用いたマルチオブジェクト分割任意スティル化手法を提案する。
本手法は任意のオブジェクトやスタイルに拡張可能であり,最先端の手法と比較して高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-24T18:24:55Z) - Sem-CS: Semantic CLIPStyler for Text-Based Image Style Transfer [4.588028371034406]
本稿ではセマンティックCLIPStyler(Semantic CLIPStyler)を提案する。
Sem-CSはまずコンテンツイメージを正当で非正当なオブジェクトに分割し、所定のスタイルのテキスト記述に基づいて芸術的なスタイルを転送する。
DISTS,NIMA,ユーザスタディスコアなどの実験結果から,提案手法は質的,定量的な性能に優れることが示された。
論文 参考訳(メタデータ) (2023-07-12T05:59:42Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - SEM-CS: Semantic CLIPStyler for Text-Based Image Style Transfer [4.588028371034406]
本稿ではセマンティックCLIPStyler(Semantic CLIPStyler)を提案する。
Sem-CSはまずコンテンツイメージを正当で非正当なオブジェクトに分割し、所定のスタイルのテキスト記述に基づいて芸術的なスタイルを転送する。
DISTS,NIMA,ユーザスタディスコアなどの実験結果から,提案手法は質的,定量的な性能に優れることが示された。
論文 参考訳(メタデータ) (2023-03-11T07:33:06Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Panoptic-based Object Style-Align for Image-to-Image Translation [2.226472061870956]
本稿では,画像から画像への変換を行うために,パノプティクスに基づくオブジェクトスタイル適応生成ネットワーク(POSA-GAN)を提案する。
提案手法は,異なる競合手法と体系的に比較し,画像の画質とオブジェクト認識性能に大きな改善を加えた。
論文 参考訳(メタデータ) (2021-12-03T14:28:11Z) - Manifold Alignment for Semantically Aligned Style Transfer [61.1274057338588]
我々は,同じ意味領域からの画像特徴が多様体を形成し,複数の意味領域を持つ画像が多次元分布に従うことを仮定する。
この仮定に基づき、スタイル伝達問題は2つの多次元分布の整列として定式化される。
提案したフレームワークは、出力とスタイルイメージの間の意味的に類似した領域を、類似したスタイルパターンを共有することができる。
論文 参考訳(メタデータ) (2020-05-21T16:52:37Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。