論文の概要: Neural arbitrary style transfer for portrait images using the attention
mechanism
- arxiv url: http://arxiv.org/abs/2002.07643v1
- Date: Mon, 17 Feb 2020 13:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:44:15.084138
- Title: Neural arbitrary style transfer for portrait images using the attention
mechanism
- Title(参考訳): 注意機構を用いた画像のニューラルネットワークによる任意のスタイル転送
- Authors: S. A. Berezin, V.M. Volkova
- Abstract要約: 任意スタイルの転送は、これまで見たことのない画像の合成のタスクである。
本稿では,ディープニューラルネットワークのアーキテクチャを組み合わせることで,この問題を解決する方法を検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arbitrary style transfer is the task of synthesis of an image that has never
been seen before, using two given images: content image and style image. The
content image forms the structure, the basic geometric lines and shapes of the
resulting image, while the style image sets the color and texture of the
result. The word "arbitrary" in this context means the absence of any one
pre-learned style. So, for example, convolutional neural networks capable of
transferring a new style only after training or retraining on a new amount of
data are not con-sidered to solve such a problem, while networks based on the
attention mech-anism that are capable of performing such a transformation
without retraining - yes. An original image can be, for example, a photograph,
and a style image can be a painting of a famous artist. The resulting image in
this case will be the scene depicted in the original photograph, made in the
stylie of this picture. Recent arbitrary style transfer algorithms make it
possible to achieve good re-sults in this task, however, in processing portrait
images of people, the result of such algorithms is either unacceptable due to
excessive distortion of facial features, or weakly expressed, not bearing the
characteristic features of a style image. In this paper, we consider an
approach to solving this problem using the combined architecture of deep neural
networks with a attention mechanism that transfers style based on the contents
of a particular image segment: with a clear predominance of style over the form
for the background part of the im-age, and with the prevalence of content over
the form in the image part con-taining directly the image of a person.
- Abstract(参考訳): 任意スタイル転送は、コンテンツイメージとスタイルイメージという2つの与えられたイメージを使用して、これまで見たことのないイメージを合成するタスクである。
内容画像は、結果の画像の構造、基本的な幾何学的線、形状を形成し、スタイル画像は結果の色とテクスチャを設定する。
この文脈で"arbitrary"という言葉は、事前学習されたスタイルが存在しないことを意味する。
例えば、新しいスタイルのトレーニングや新しい量のデータの再トレーニングの後にのみ、新しいスタイルを転送できる畳み込みニューラルネットワークは、そのような問題を解決するために、畳み込みをしないが、注意メクアニズムに基づくネットワークは、再トレーニングせずにそのような変換を行うことができる。
オリジナルイメージは例えば写真でもよいし、スタイルイメージは有名アーティストの絵でも構わない。
このケースで得られた画像は、オリジナルの写真に描かれたシーンで、この写真のスタイリで作られます。
近年の任意のスタイル転送アルゴリズムは, 人物の肖像画の処理において, 顔の特徴が過度に歪んだり, 弱く表現されたりすることで, 画像の特徴を欠くことなく, 良好な再侮辱を実現することができる。
本稿では、特定の画像セグメントの内容に基づいてスタイルを転送する注意機構を備えたディープニューラルネットワークの複合アーキテクチャを用いて、この問題を解決するためのアプローチについて検討する。
関連論文リスト
- PixelShuffler: A Simple Image Translation Through Pixel Rearrangement [0.0]
スタイル転送は画像から画像への変換の応用として広く研究されており、ある画像の内容を他の画像のスタイルと組み合わせた画像の合成が目的である。
既存の最先端の手法は、しばしば高品質なスタイル転送を実現するために拡散モデルや言語モデルを含む複雑なニューラルネットワークに依存している。
本稿では,画像から画像への変換問題に対処する新たなピクセルシャッフル手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T22:08:41Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - Stroke-based Neural Painting and Stylization with Dynamically Predicted
Painting Region [66.75826549444909]
ストロークベースのレンダリングは、ストロークのセットで画像を再現することを目的としている。
本研究では,現在のキャンバスに基づいて絵画領域を予測する合成ニューラルネットワークを提案する。
我々は、新しい微分可能な距離変換損失を伴って、ストロークベースのスタイル転送に拡張する。
論文 参考訳(メタデータ) (2023-09-07T06:27:39Z) - Artistic Arbitrary Style Transfer [1.1279808969568252]
任意スタイル転送(英: Arbitrary Style Transfer)とは、コンテンツ画像とスタイル画像という2つの画像から新しい画像を生成する技術である。
構造とスタイルコンポーネントのバランシングは、他の最先端のアルゴリズムが解決しようとしている大きな課題である。
本研究では、畳み込みニューラルネットワークを用いたディープラーニングアプローチを用いて、これらの問題を解決する。
論文 参考訳(メタデータ) (2022-12-21T21:34:00Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Diverse facial inpainting guided by exemplars [8.360536784609309]
本稿では,新しい多彩でインタラクティブな顔インペイントフレームワークEXE-GANを紹介する。
提案手法は, 入力画像のグローバルなスタイル, スタイル, および模範的なスタイルを活用することで, 生成的対向ネットワークに基づく顔の塗装を実現する。
CelebA-HQおよびFFHQデータセットの様々な実験結果と比較を行い,提案手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-02-13T16:29:45Z) - Neural Re-Rendering of Humans from a Single Image [80.53438609047896]
本稿では,新しいユーザ定義のポーズと視点の下での人間のニューラルリレンダリング手法を提案する。
私たちのアルゴリズムは、単一の画像から再構築できるパラメトリックメッシュとして体ポーズと形状を表します。
論文 参考訳(メタデータ) (2021-01-11T18:53:47Z) - Semantic Image Manipulation Using Scene Graphs [105.03614132953285]
本稿では,星座変更や画像編集を直接監督する必要のないシーングラフネットワークを提案する。
これにより、追加のアノテーションを使わずに、既存の実世界のデータセットからシステムをトレーニングすることができる。
論文 参考訳(メタデータ) (2020-04-07T20:02:49Z) - Structural-analogy from a Single Image Pair [118.61885732829117]
本稿では,1対の画像A,Bのみを用いて,ニューラルネットワークによる画像構造理解能力について検討する。
我々は、B の外観とスタイルを保持するが、A に対応する構造的配置を持つ画像を生成する。
提案手法は,画像AとBのみを利用した条件生成タスクにおいて,高品質な画像を生成するために利用できる。
論文 参考訳(メタデータ) (2020-04-05T14:51:10Z) - Local Facial Attribute Transfer through Inpainting [3.4376560669160394]
属性転送という用語は、与えられた入力画像の意味的解釈を意図した方向にシフトさせるような方法で画像を変更するタスクを指す。
属性伝達の最近の進歩は、主に生成的なディープニューラルネットワークに基づいており、ジェネレータの潜時空間における画像を操作する様々な技術を用いている。
本稿では,局所的な属性伝達の共通サブタスクに対して,意味的変化を実現するために,顔の一部のみを変更する必要がある新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-07T22:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。