論文の概要: Personalized Image Enhancement Featuring Masked Style Modeling
- arxiv url: http://arxiv.org/abs/2306.09334v1
- Date: Thu, 15 Jun 2023 17:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:06:07.676223
- Title: Personalized Image Enhancement Featuring Masked Style Modeling
- Title(参考訳): マスクスタイルモデリングによるパーソナライズされた画像強調
- Authors: Satoshi Kosugi, Toshihiko Yamasaki
- Abstract要約: ユーザの好む画像に基づいて,各ユーザの入力画像を強化する。
コンテンツを考慮した入力画像のスタイルを予測できるマスク型スタイルモデリング法を提案する。
我々は定量的評価とユーザスタディを行い、トレーニング手法を用いてトレーニングし、コンテンツ認識のパーソナライゼーションを成功させる。
- 参考スコア(独自算出の注目度): 42.400427631514596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address personalized image enhancement in this study, where we enhance
input images for each user based on the user's preferred images. Previous
methods apply the same preferred style to all input images (i.e., only one
style for each user); in contrast to these methods, we aim to achieve
content-aware personalization by applying different styles to each image
considering the contents. For content-aware personalization, we make two
contributions. First, we propose a method named masked style modeling, which
can predict a style for an input image considering the contents by using the
framework of masked language modeling. Second, to allow this model to consider
the contents of images, we propose a novel training scheme where we download
images from Flickr and create pseudo input and retouched image pairs using a
degrading model. We conduct quantitative evaluations and a user study, and our
method trained using our training scheme successfully achieves content-aware
personalization; moreover, our method outperforms other previous methods in
this field. Our source code is available at
https://github.com/satoshi-kosugi/masked-style-modeling.
- Abstract(参考訳): 本研究では,ユーザの好みの画像に基づいて,各ユーザの入力画像を強調するパーソナライズされた画像強調について検討する。
従来の手法では,すべての入力画像に対して同じ好みのスタイル(つまり,ユーザ毎に1つのスタイルのみ)を適用するが,これらとは対照的に,コンテンツを考慮したパーソナライズを実現するために,各画像に異なるスタイルを適用する。
コンテンツ対応パーソナライズには2つの貢献があります。
まず、マスク型言語モデリングの枠組みを用いて、コンテンツを考慮した入力画像のスタイルを予測できるマスク型スタイルモデリング法を提案する。
第二に,このモデルで画像の内容を考えるために,Flickrから画像をダウンロードし,デグレーディングモデルを用いて擬似入力と修正画像のペアを作成する,新たなトレーニング手法を提案する。
本手法は, 定量的評価とユーザ調査を行い, 本手法を用いてトレーニングを行った結果, コンテンツ認識パーソナライゼーションが実現できた。
ソースコードはhttps://github.com/satoshi-kosugi/masked-style-modelingから入手できます。
関連論文リスト
- StyleBrush: Style Extraction and Transfer from a Single Image [19.652575295703485]
ビジュアルコンテンツのスティル化は、オリジナルの構造的特徴を保ちながら、ピクセルレベルで特定のスタイルパターンを追加することを目的としている。
本稿では,参照画像からスタイルを正確にキャプチャし,抽出したスタイルを他の入力ビジュアルコンテンツにブラシするStyleBrushを提案する。
論文 参考訳(メタデータ) (2024-08-18T14:27:20Z) - Customizing Text-to-Image Models with a Single Image Pair [47.49970731632113]
芸術再解釈(Art repretation)は、参照された作品のバリエーションを作成し、異なる芸術様式を示すペアアートを作るプラクティスである。
Pair Customizationは1つの画像対からスタイリスティックな違いを学習し、取得したスタイルを生成プロセスに適用する新しいカスタマイズ手法である。
論文 参考訳(メタデータ) (2024-05-02T17:59:52Z) - Measuring Style Similarity in Diffusion Models [118.22433042873136]
画像からスタイル記述子を理解し抽出するためのフレームワークを提案する。
我々のフレームワークは、スタイルが画像の主観的特性であるという洞察を用いてキュレートされた新しいデータセットで構成されている。
また、テキスト・ツー・イメージ・モデルのトレーニングデータセットで使用される画像に対して、生成した画像のスタイルに使用できるスタイル属性記述子を抽出する手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T17:58:30Z) - Customize StyleGAN with One Hand Sketch [0.0]
本稿では,単一のユーザスケッチでスタイルGAN画像を制御するフレームワークを提案する。
我々は、エネルギーベース学習により、事前学習したStyleGANモデルの潜在空間における条件分布を学習する。
我々のモデルは、入力スケッチにセマンティックに整合したマルチモーダル画像を生成することができる。
論文 参考訳(メタデータ) (2023-10-29T09:32:33Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。