論文の概要: Geometric Style Transfer
- arxiv url: http://arxiv.org/abs/2007.05471v1
- Date: Fri, 10 Jul 2020 16:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 22:19:12.877777
- Title: Geometric Style Transfer
- Title(参考訳): 幾何学的スタイル転送
- Authors: Xiao-Chang Liu, Xuan-Yi Li, Ming-Ming Cheng, Peter Hall
- Abstract要約: 幾何学的スタイルの伝達をサポートするニューラルアーキテクチャを導入する。
新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って実行される。
ユーザーはコンテント/スタイルのペアを一般的なように入力したり、コンテント/テクスチャスタイル/幾何学スタイルのトリプルを入力できる。
- 参考スコア(独自算出の注目度): 74.58782301514053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural style transfer (NST), where an input image is rendered in the style of
another image, has been a topic of considerable progress in recent years.
Research over that time has been dominated by transferring aspects of color and
texture, yet these factors are only one component of style. Other factors of
style include composition, the projection system used, and the way in which
artists warp and bend objects. Our contribution is to introduce a neural
architecture that supports transfer of geometric style. Unlike recent work in
this area, we are unique in being general in that we are not restricted by
semantic content. This new architecture runs prior to a network that transfers
texture style, enabling us to transfer texture to a warped image. This form of
network supports a second novelty: we extend the NST input paradigm. Users can
input content/style pair as is common, or they can chose to input a
content/texture-style/geometry-style triple. This three image input paradigm
divides style into two parts and so provides significantly greater versatility
to the output we can produce. We provide user studies that show the quality of
our output, and quantify the importance of geometric style transfer to style
recognition by humans.
- Abstract(参考訳): 入力画像が他の画像のスタイルで描画されるニューラルスタイル転送(NST)は、近年かなり進歩しているトピックである。
この時期の研究は、色とテクスチャの側面を移すことで支配されてきたが、これらの要素はスタイルの一要素に過ぎない。
他のスタイルの要素としては、作曲、使用する投影システム、アーティストが物体をねじり曲げる方法などがある。
私たちの貢献は、幾何学的スタイルの転送をサポートするニューラルネットワークアーキテクチャの導入です。
この分野での最近の研究と異なり、セマンティックなコンテンツに制限されないという点で、私たちは独特です。
この新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って動作し、テクスチャを歪んだ画像に転送することができる。
この形態のネットワークは、NST入力パラダイムを拡張して第二の新規性をサポートする。
ユーザーは一般的なようにコンテンツ/スタイルのペアを入力したり、コンテンツ/テキストスタイル/ジオメトリスタイルのトリプルを入力できる。
この3つのイメージ入力パラダイムはスタイルを2つの部分に分けて、私たちが生成できるアウトプットに対して、はるかに高い汎用性を提供します。
我々は、出力の質を示すユーザ研究を行い、人間のスタイル認識への幾何学的スタイル変換の重要性を定量化する。
関連論文リスト
- DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - 3D Face Arbitrary Style Transfer [18.09280257466941]
FDST(Face-Guided Dual Style Transfer)という新しい手法を提案する。
FDSTは3Dデカップリングモジュールを使用して顔の形状とテクスチャを分離する。
FDSTは、領域制御可能なスタイル転送、高忠実な顔テクスチャ再構築、芸術的な顔再構成など、多くの下流タスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-14T08:51:51Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Artistic Arbitrary Style Transfer [1.1279808969568252]
任意スタイル転送(英: Arbitrary Style Transfer)とは、コンテンツ画像とスタイル画像という2つの画像から新しい画像を生成する技術である。
構造とスタイルコンポーネントのバランシングは、他の最先端のアルゴリズムが解決しようとしている大きな課題である。
本研究では、畳み込みニューラルネットワークを用いたディープラーニングアプローチを用いて、これらの問題を解決する。
論文 参考訳(メタデータ) (2022-12-21T21:34:00Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - SAFIN: Arbitrary Style Transfer With Self-Attentive Factorized Instance
Normalization [71.85169368997738]
芸術的スタイル転送は、ある画像のスタイル特性を他の画像に移し、その内容を保持することを目的としている。
自己注意に基づくアプローチは、部分的な成功でこの問題に取り組みましたが、望ましくない成果物に悩まされています。
本論文は,自己意識と正規化という両世界のベストを結合することを目的とする。
論文 参考訳(メタデータ) (2021-05-13T08:01:01Z) - Exemplar-Based 3D Portrait Stylization [23.585334925548064]
ワンショット3Dポートレートスタイル転送のための最初のフレームワークを提示する。
形状が誇張され、テクスチャがスタイリングされた3Dフェイスモデルを生成することができる。
本手法は,異なるスタイルの芸術的効果を強く達成し,既存の手法より優れる。
論文 参考訳(メタデータ) (2021-04-29T17:59:54Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。