論文の概要: Improving Masked Style Transfer using Blended Partial Convolution
- arxiv url: http://arxiv.org/abs/2508.05769v1
- Date: Thu, 07 Aug 2025 18:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.979586
- Title: Improving Masked Style Transfer using Blended Partial Convolution
- Title(参考訳): ブレンド部分的畳み込みによるマスケッドスタイルの伝達改善
- Authors: Seyed Hadi Seyed, Ayberk Cansever, David Hart,
- Abstract要約: 本稿では,部分畳み込みに基づくスタイル伝達ネットワークを提案し,そのスタイル特徴を興味のある領域にのみ適用する。
このことは,SA-1Bデータセットの例を用いて,視覚的,定量的にスタイリングを改善することを示す。
- 参考スコア(独自算出の注目度): 1.88983073378322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artistic style transfer has long been possible with the advancements of convolution- and transformer-based neural networks. Most algorithms apply the artistic style transfer to the whole image, but individual users may only need to apply a style transfer to a specific region in the image. The standard practice is to simply mask the image after the stylization. This work shows that this approach tends to improperly capture the style features in the region of interest. We propose a partial-convolution-based style transfer network that accurately applies the style features exclusively to the region of interest. Additionally, we present network-internal blending techniques that account for imperfections in the region selection. We show that this visually and quantitatively improves stylization using examples from the SA-1B dataset. Code is publicly available at https://github.com/davidmhart/StyleTransferMasked.
- Abstract(参考訳): アーティスティックなスタイルの転送は、畳み込みとトランスフォーマーベースのニューラルネットワークの進歩によって長い間可能であった。
ほとんどのアルゴリズムは、画像全体に芸術的なスタイルの転送を適用するが、個々のユーザーは画像の特定の領域にのみスタイルの転送を適用する必要がある。
標準的な慣行は、スタイリゼーション後のイメージを単にマスクすることである。
この研究は、このアプローチが関心のある領域のスタイルの特徴を不適切にキャプチャする傾向があることを示している。
本稿では,部分畳み込みに基づくスタイル伝達ネットワークを提案し,そのスタイル特徴を関心領域のみに正確に適用する。
さらに,地域選択における不完全性を考慮したネットワーク内ブレンディング手法を提案する。
このことは,SA-1Bデータセットの例を用いて,視覚的,定量的にスタイリングを改善することを示す。
コードはhttps://github.com/davidmhart/StyleTransferMasked.comで公開されている。
関連論文リスト
- Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。