論文の概要: Interactive Neural Painting
- arxiv url: http://arxiv.org/abs/2307.16441v1
- Date: Mon, 31 Jul 2023 07:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 15:28:44.399304
- Title: Interactive Neural Painting
- Title(参考訳): インタラクティブなニューラルペイント
- Authors: Elia Peruzzo, Willi Menapace, Vidit Goel, Federica Arrigoni, Hao Tang,
Xingqian Xu, Arman Chopikyan, Nikita Orlov, Yuxiao Hu, Humphrey Shi, Nicu
Sebe, Elisa Ricci
- Abstract要約: 本稿では,対話型ニューラルペイント(NP)の最初のアプローチを提案する。
2段デコーダを用いた条件変圧器変分自動エンコーダ(VAE)アーキテクチャに基づく新しい手法であるI-Paintを提案する。
実験の結果,本手法は良好なストローク提案を提供し,最先端技術と比較した。
- 参考スコア(独自算出の注目度): 66.9376011879115
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the last few years, Neural Painting (NP) techniques became capable of
producing extremely realistic artworks. This paper advances the state of the
art in this emerging research domain by proposing the first approach for
Interactive NP. Considering a setting where a user looks at a scene and tries
to reproduce it on a painting, our objective is to develop a computational
framework to assist the users creativity by suggesting the next strokes to
paint, that can be possibly used to complete the artwork. To accomplish such a
task, we propose I-Paint, a novel method based on a conditional transformer
Variational AutoEncoder (VAE) architecture with a two-stage decoder. To
evaluate the proposed approach and stimulate research in this area, we also
introduce two novel datasets. Our experiments show that our approach provides
good stroke suggestions and compares favorably to the state of the art.
Additional details, code and examples are available at
https://helia95.github.io/inp-website.
- Abstract(参考訳): ここ数年で、NP(Neural Painting)技術は極めて現実的なアートワークを制作できるようになった。
本稿では,Interactive NPの最初のアプローチを提案することによって,新たな研究領域における技術の現状を推し進める。
ユーザがシーンを見て、それを絵画で再現しようとする設定を考えると、我々は、絵を描く次のストロークを提案することによって、ユーザの創造性を支援する計算フレームワークを開発することを目的としています。
そこで本稿では,2段階デコーダを用いた条件変換器の変分自動エンコーダ(VAE)アーキテクチャに基づく新しい手法であるI-Paintを提案する。
提案手法を評価し,この分野の研究を刺激するために,新たなデータセットを2つ導入する。
実験の結果,本手法は良好なストローク提案を提供し,最先端技術と比較した。
詳細、コード、サンプルはhttps://helia95.github.io/inp-websiteで確認できる。
関連論文リスト
- Collaborative Neural Painting [27.880814775833578]
我々は,人間と機械の協調的な絵画作成を容易にする新しいタスク,CNP(Collaborative Neural Painting)を導入する。
CNPはコヒーレントな絵画の完成を支える一連のストロークを生成するべきである。
本研究では,パラメータ化されたストロークの列に基づく絵画表現を提案する。
論文 参考訳(メタデータ) (2023-12-04T10:45:12Z) - Reconstructing Existing Levels through Level Inpainting [3.1788052710897707]
本稿では、コンテンツ拡張について紹介し、レベルのインペイントのサブプロブレムに焦点を当てる。
本稿では,オートエンコーダとU-netの2つのレベルインペイント手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T04:10:27Z) - Stroke-based Neural Painting and Stylization with Dynamically Predicted
Painting Region [66.75826549444909]
ストロークベースのレンダリングは、ストロークのセットで画像を再現することを目的としている。
本研究では,現在のキャンバスに基づいて絵画領域を予測する合成ニューラルネットワークを提案する。
我々は、新しい微分可能な距離変換損失を伴って、ストロークベースのスタイル転送に拡張する。
論文 参考訳(メタデータ) (2023-09-07T06:27:39Z) - Paint2Pix: Interactive Painting based Progressive Image Synthesis and
Editing [23.143394242978125]
paint2pixは、初歩的なブラシストローク入力から"ユーザが描きたいもの"を予測することを学ぶ。
paint2pixは、スクラッチからプログレッシブな画像合成に使用できる。
私たちのアプローチは、実際の画像編集にも驚くほど便利なアプローチを形成しています。
論文 参考訳(メタデータ) (2022-08-17T06:08:11Z) - Interactive Image Inpainting Using Semantic Guidance [36.34615403590834]
本稿では,ユーザ自身の好みや記憶によってインペイント結果のカスタマイズを可能にする,新しい画像インペイント手法を提案する。
第1段階では、新規な空間的注意機構に基づくオートエンコーダを配置して、破損した画像の再構成特徴を生成する。
第2段階では、ユーザがカスタマイズしたセマンティックマスクによって導かれる微細な塗布結果を合成するために、予め再構成された特徴を取り入れたセマンティックデコーダが採用される。
論文 参考訳(メタデータ) (2022-01-26T05:09:42Z) - Sketch-Guided Scenery Image Outpainting [83.6612152173028]
本稿では,スケッチ誘導露光を行うエンコーダデコーダに基づくネットワークを提案する。
全体的アライメントモジュールを適用して、合成された部分をグローバルビューの実際のものと類似させる。
第2に, 合成した部分からスケッチを逆向きに生成し, 接地した部分との整合性を奨励する。
論文 参考訳(メタデータ) (2020-06-17T11:34:36Z) - Head2Head: Video-based Neural Head Synthesis [50.32988828989691]
顔再現のための新しい機械学習アーキテクチャを提案する。
提案手法は, 顔の表情, ポーズ, 視線を, 最先端の手法よりも正確に写実的な方法で対象映像に転送できることを示す。
論文 参考訳(メタデータ) (2020-05-22T00:44:43Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Very Long Natural Scenery Image Prediction by Outpainting [96.8509015981031]
アウトペイントには2つの課題があるため、あまり注意を払わない。
第一の課題は、生成された画像と元の入力の間の空間的および内容的整合性を維持する方法である。
第2の課題は、生成した結果の高品質を維持する方法です。
論文 参考訳(メタデータ) (2019-12-29T16:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。