論文の概要: Artistic Arbitrary Style Transfer
- arxiv url: http://arxiv.org/abs/2212.11376v1
- Date: Wed, 21 Dec 2022 21:34:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:34:47.771852
- Title: Artistic Arbitrary Style Transfer
- Title(参考訳): 芸術的任意の様式の移譲
- Authors: Weiting Li, Rahul Vyas, Ramya Sree Penta
- Abstract要約: 任意スタイル転送(英: Arbitrary Style Transfer)とは、コンテンツ画像とスタイル画像という2つの画像から新しい画像を生成する技術である。
構造とスタイルコンポーネントのバランシングは、他の最先端のアルゴリズムが解決しようとしている大きな課題である。
本研究では、畳み込みニューラルネットワークを用いたディープラーニングアプローチを用いて、これらの問題を解決する。
- 参考スコア(独自算出の注目度): 1.1279808969568252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arbitrary Style Transfer is a technique used to produce a new image from two
images: a content image, and a style image. The newly produced image is unseen
and is generated from the algorithm itself. Balancing the structure and style
components has been the major challenge that other state-of-the-art algorithms
have tried to solve. Despite all the efforts, it's still a major challenge to
apply the artistic style that was originally created on top of the structure of
the content image while maintaining consistency. In this work, we solved these
problems by using a Deep Learning approach using Convolutional Neural Networks.
Our implementation will first extract foreground from the background using the
pre-trained Detectron 2 model from the content image, and then apply the
Arbitrary Style Transfer technique that is used in SANet. Once we have the two
styled images, we will stitch the two chunks of images after the process of
style transfer for the complete end piece.
- Abstract(参考訳): 任意のスタイル転送は、コンテンツイメージとスタイルイメージという2つのイメージから新しいイメージを生成するために使用されるテクニックである。
新たに生成された画像は見当たらず、アルゴリズム自体から生成される。
構造とスタイルコンポーネントのバランスをとることは、他の最先端アルゴリズムが解決しようとする大きな課題でした。
あらゆる努力にもかかわらず、コンテンツイメージの構造の上に作られたアートスタイルを一貫性を維持しながら適用することは、依然として大きな課題です。
本研究では,畳み込みニューラルネットワークを用いた深層学習手法を用いて,これらの問題を解決した。
本実装では,まずコンテンツ画像から事前学習した detectionron 2 モデルを用いて背景からフォアグラウンドを抽出し,sanet で使用される任意のスタイル転送手法を適用する。
2つのスタイル化されたイメージが得られたら、完全なエンドピースのスタイル転送のプロセスの後、2つのイメージ塊を縫い合わせる。
関連論文リスト
- Scaling Painting Style Transfer [10.059627473725508]
ニューラル・スタイル・トランスファー(Neural Style Transfer, NST)は、スタイル・イメージからコンテンツ・イメージへ、前例のないほどリッチなスタイル・トランスファーを生成する技術である。
本稿では,超高解像度(UHR)画像に対するグローバル最適化の解法を提案する。
このような高精細な絵画スタイルに対して,本手法が不整合品質のスタイル転送を実現することを示す。
論文 参考訳(メタデータ) (2022-12-27T12:03:38Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - Geometric Style Transfer [74.58782301514053]
幾何学的スタイルの伝達をサポートするニューラルアーキテクチャを導入する。
新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って実行される。
ユーザーはコンテント/スタイルのペアを一般的なように入力したり、コンテント/テクスチャスタイル/幾何学スタイルのトリプルを入力できる。
論文 参考訳(メタデータ) (2020-07-10T16:33:23Z) - Real-time Universal Style Transfer on High-resolution Images via
Zero-channel Pruning [74.09149955786367]
ArtNetは、高解像度画像上の普遍的、リアルタイム、および高品質なスタイル転送を同時に達成することができる。
ArtNetとS2を使用することで、我々の手法は最先端の手法よりも2.3~107.4倍高速である。
論文 参考訳(メタデータ) (2020-06-16T09:50:14Z) - Generating Embroidery Patterns Using Image-to-Image Translation [2.055949720959582]
そこで本研究では,2つの機械学習手法を用いて刺刺画像から画像への変換を行う。
私たちのゴールは、ユーザのアップロードした画像から、刺青画像に似たプレビュー画像を生成することです。
実験結果から,これらの手法がユーザ画像の刺青バージョンを近似したプレビュー生成に成功していることが示された。
論文 参考訳(メタデータ) (2020-03-05T20:32:40Z) - Neural arbitrary style transfer for portrait images using the attention
mechanism [0.0]
任意スタイルの転送は、これまで見たことのない画像の合成のタスクである。
本稿では,ディープニューラルネットワークのアーキテクチャを組み合わせることで,この問題を解決する方法を検討する。
論文 参考訳(メタデータ) (2020-02-17T13:59:58Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z) - Very Long Natural Scenery Image Prediction by Outpainting [96.8509015981031]
アウトペイントには2つの課題があるため、あまり注意を払わない。
第一の課題は、生成された画像と元の入力の間の空間的および内容的整合性を維持する方法である。
第2の課題は、生成した結果の高品質を維持する方法です。
論文 参考訳(メタデータ) (2019-12-29T16:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。