論文の概要: HyperNST: Hyper-Networks for Neural Style Transfer
- arxiv url: http://arxiv.org/abs/2208.04807v1
- Date: Tue, 9 Aug 2022 14:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:44:30.182386
- Title: HyperNST: Hyper-Networks for Neural Style Transfer
- Title(参考訳): HyperNST: ニューラルスタイル転送のためのハイパーネットワーク
- Authors: Dan Ruta, Andrew Gilbert, Saeid Motiian, Baldo Faieta, Zhe Lin, and
John Collomosse
- Abstract要約: 本稿では,Hyper-networksとStyleGAN2アーキテクチャに基づく画像の芸術的スタイリング手法を提案する。
我々の貢献は、スタイルベースビジュアルサーチ(SBVS)のために事前訓練された計量空間でパラメータ化されたスタイル転送を誘導する新しい方法である。
技術的貢献はハイパーネットワークであり、さまざまな芸術的コンテンツに対して事前訓練されたStyleGAN2の重量更新を予測する。
- 参考スコア(独自算出の注目度): 19.71337532582559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present HyperNST; a neural style transfer (NST) technique for the artistic
stylization of images, based on Hyper-networks and the StyleGAN2 architecture.
Our contribution is a novel method for inducing style transfer parameterized by
a metric space, pre-trained for style-based visual search (SBVS). We show for
the first time that such space may be used to drive NST, enabling the
application and interpolation of styles from an SBVS system. The technical
contribution is a hyper-network that predicts weight updates to a StyleGAN2
pre-trained over a diverse gamut of artistic content (portraits), tailoring the
style parameterization on a per-region basis using a semantic map of the facial
regions. We show HyperNST to exceed state of the art in content preservation
for our stylized content while retaining good style transfer performance.
- Abstract(参考訳): 我々はHyper-networksとStyleGAN2アーキテクチャに基づく画像の芸術的スタイリングのためのニューラルスタイル転送(NST)技術であるHyperNSTを提案する。
本研究は,スタイルベースビジュアルサーチ(sbvs)用に事前学習した距離空間によってパラメータ化されたスタイル転送を誘導する新しい手法である。
SBVSシステムからのスタイルの応用と補間を可能にするため,このような空間をNSTの駆動に利用することができることを示す。
技術的コントリビューションはハイパーネットワークであり、多彩な芸術的コンテンツ(ポートレート)で事前訓練されたStyleGAN2への重み付けを予測し、顔領域のセマンティックマップを使用して、領域ごとのスタイルパラメータ化を調整する。
スタイル転送性能は良好でありながら, コンテンツ保存におけるHyperNSTは, コンテンツ保存の最先端を超越していることを示す。
関連論文リスト
- DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - Diffusion-based Human Motion Style Transfer with Semantic Guidance [23.600154466988073]
拡散モデルに基づく数ショットスタイルのトランスファー学習のための新しいフレームワークを提案する。
第1段階では,拡散に基づくテキスト・ツー・モーション・モデルを生成前として事前学習する。
第2段階では、単一スタイルの例に基づいて、事前学習した拡散モデルを数ショットで微調整し、スタイル転送を可能にする。
論文 参考訳(メタデータ) (2024-03-20T05:52:11Z) - DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - StyleAdv: Meta Style Adversarial Training for Cross-Domain Few-Shot
Learning [89.86971464234533]
Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,モデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
本手法は視覚的スタイルに対して徐々に頑健であり,新たなターゲットデータセットの一般化能力を高める。
論文 参考訳(メタデータ) (2023-02-18T11:54:37Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - Neural Neighbor Style Transfer [31.746423262728598]
本稿では,最先端の品質,一般化,芸術的スタイルの伝達のための競争効率を提供するパイプラインを提案する。
我々のアプローチは、入力されたコンテンツから抽出されたニューラル特徴をスタイルの例から抽出した特徴に明示的に置き換え、最終的な出力を合成することに基づいている。
論文 参考訳(メタデータ) (2022-03-24T17:11:31Z) - DRB-GAN: A Dynamic ResBlock Generative Adversarial Network for Artistic
Style Transfer [29.20616177457981]
本稿では,芸術的スタイル伝達のための動的ResBlock Generative Adversarial Network (DRB-GAN)を提案する。
提案したDRB-GANは最先端の手法より優れ,視覚的品質と効率の点で優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-17T00:02:19Z) - Geometric Style Transfer [74.58782301514053]
幾何学的スタイルの伝達をサポートするニューラルアーキテクチャを導入する。
新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って実行される。
ユーザーはコンテント/スタイルのペアを一般的なように入力したり、コンテント/テクスチャスタイル/幾何学スタイルのトリプルを入力できる。
論文 参考訳(メタデータ) (2020-07-10T16:33:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。