論文の概要: Non-Parametric Neural Style Transfer
- arxiv url: http://arxiv.org/abs/2108.12847v1
- Date: Sun, 29 Aug 2021 13:56:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 03:11:21.047914
- Title: Non-Parametric Neural Style Transfer
- Title(参考訳): 非パラメトリックニューラルスタイルトランスファー
- Authors: Nicholas Kolkin
- Abstract要約: 最適な輸送と自己相似性に基づくスタイルと内容の新たな定義を提案する。
最新のニューラルスタイル転送アルゴリズムと従来のパッチベースの合成アプローチの両方から着想を得たフレームワークについて説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It seems easy to imagine a photograph of the Eiffel Tower painted in the
style of Vincent van Gogh's 'The Starry Night', but upon introspection it is
difficult to precisely define what this would entail. What visual elements must
an image contain to represent the 'content' of the Eiffel Tower? What visual
elements of 'The Starry Night' are caused by van Gogh's 'style' rather than his
decision to depict a village under the night sky? Precisely defining 'content'
and 'style' is a central challenge of designing algorithms for artistic style
transfer, algorithms which can recreate photographs using an artwork's style.
My efforts defining these terms, and designing style transfer algorithms
themselves, are the focus of this thesis. I will begin by proposing novel
definitions of style and content based on optimal transport and
self-similarity, and demonstrating how a style transfer algorithm based on
these definitions generates outputs with improved visual quality. Then I will
describe how the traditional texture-based definition of style can be expanded
to include elements of geometry and proportion by jointly optimizing a
keypoint-guided deformation field alongside the stylized output's pixels.
Finally I will describe a framework inspired by both modern neural style
transfer algorithms and traditional patch-based synthesis approaches which is
fast, general, and offers state-of-the-art visual quality.
- Abstract(参考訳): エッフェル塔の写真がヴィンセント・ファン・ゴッホの『星の夜』のスタイルで描かれたとは想像がつくが、内観ではそれが何に関係するかを正確に定義することは難しい。
エッフェル塔の「コンテンツ」を表すために、どのような視覚要素を含む必要があるか。
星の夜」の視覚的な要素は、夜空の下で村を描くという決定よりも、ファン・ゴッホの「スタイル」によって引き起こされるのか?
正確に「コンテンツ」と「スタイル」を定義することは、アートスタイルの転送のためのアルゴリズムを設計する上で重要な課題である。
これらの用語を定義し、スタイル転送アルゴリズム自体を設計する私の努力がこの論文の焦点です。
まず、最適なトランスポートと自己相似性に基づくスタイルとコンテンツの新しい定義を提案し、これらの定義に基づくスタイル転送アルゴリズムが、視覚品質を改善した出力を生成する方法を示す。
次に, 従来のテクスチャに基づくスタイル定義を, 幾何学的要素を含むように拡張し, キーポイント誘導変形場をスタイライズされた出力の画素と共同で最適化する方法について述べる。
最後に、現代的なニューラルスタイル転送アルゴリズムと、高速で汎用的で最先端の視覚品質を提供する従来のパッチベースの合成アプローチの両方に触発されたフレームワークについて説明する。
関連論文リスト
- Beyond Color and Lines: Zero-Shot Style-Specific Image Variations with Coordinated Semantics [3.9717825324709413]
スタイルは、主に色、ブラシストローク、照明といった芸術的要素の観点から検討されてきた。
本研究では,コーディネート・セマンティクスを用いた画像変化のためのゼロショット・スキームを提案する。
論文 参考訳(メタデータ) (2024-10-24T08:34:57Z) - Bridging Text and Image for Artist Style Transfer via Contrastive Learning [21.962361974579036]
本稿では,任意のスタイル転送を制御するためのCLAST(Contrastive Learning for Artistic Style Transfer)を提案する。
画像テキストモデルからスタイル記述を効果的に抽出するための教師付きコントラスト訓練戦略を導入する。
また,AdaLNをベースとした新規かつ効率的な状態空間モデルを提案する。
論文 参考訳(メタデータ) (2024-10-12T15:27:57Z) - InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - Artistic Arbitrary Style Transfer [1.1279808969568252]
任意スタイル転送(英: Arbitrary Style Transfer)とは、コンテンツ画像とスタイル画像という2つの画像から新しい画像を生成する技術である。
構造とスタイルコンポーネントのバランシングは、他の最先端のアルゴリズムが解決しようとしている大きな課題である。
本研究では、畳み込みニューラルネットワークを用いたディープラーニングアプローチを用いて、これらの問題を解決する。
論文 参考訳(メタデータ) (2022-12-21T21:34:00Z) - Inversion-Based Style Transfer with Diffusion Models [78.93863016223858]
以前の任意の例として誘導された芸術的画像生成法は、しばしば形状変化の制御や要素の伝達に失敗する。
画像のキー情報を効率よく正確に学習できるインバージョンベースのスタイル転送手法(InST)を提案する。
論文 参考訳(メタデータ) (2022-11-23T18:44:25Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Name Your Style: An Arbitrary Artist-aware Image Style Transfer [38.41608300670523]
任意のスタイル転送を制御するために,高度な画像テキストエンコーダを利用するテキスト駆動型画像スタイル転送(TxST)を提案する。
画像テキストモデルからスタイル記述を効果的に抽出するための対照的なトレーニング戦略を導入する。
我々はまた、スタイルやコンテンツの特徴を融合するクロスアテンションを探求する、新しく効率的なアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2022-02-28T06:21:38Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - Geometric Style Transfer [74.58782301514053]
幾何学的スタイルの伝達をサポートするニューラルアーキテクチャを導入する。
新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って実行される。
ユーザーはコンテント/スタイルのペアを一般的なように入力したり、コンテント/テクスチャスタイル/幾何学スタイルのトリプルを入力できる。
論文 参考訳(メタデータ) (2020-07-10T16:33:23Z) - Towards Photo-Realistic Virtual Try-On by Adaptively
Generating$\leftrightarrow$Preserving Image Content [85.24260811659094]
本稿では,適応コンテンツ生成・保存ネットワーク(ACGPN)という新しいビジュアル・トライオン・ネットワークを提案する。
ACGPNはまず、試行錯誤後に変更される参照画像のセマンティックレイアウトを予測する。
第二に、服のワープモジュールは、生成されたセマンティックレイアウトに従って衣服の画像をワープする。
第3に、コンテンツ融合のための塗装モジュールは、すべての情報(例えば、参照画像、セマンティックレイアウト、歪んだ衣服)を統合して、人間の身体の各意味部分を適応的に生成する。
論文 参考訳(メタデータ) (2020-03-12T15:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。