論文の概要: Inverse Painting: Reconstructing The Painting Process
- arxiv url: http://arxiv.org/abs/2409.20556v1
- Date: Mon, 30 Sep 2024 17:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-02 01:35:17.319863
- Title: Inverse Painting: Reconstructing The Painting Process
- Title(参考訳): 逆絵画:絵画の過程を再構築する
- Authors: Bowei Chen, Yifan Wang, Brian Curless, Ira Kemelmacher-Shlizerman, Steven M. Seitz,
- Abstract要約: 我々はこれを自己回帰画像生成問題として定式化し、初期空白の「キャンバス」を反復的に更新する。
モデルは、多くのペイントビデオのトレーニングによって、実際のアーティストから学習する。
- 参考スコア(独自算出の注目度): 24.57538165449989
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Given an input painting, we reconstruct a time-lapse video of how it may have been painted. We formulate this as an autoregressive image generation problem, in which an initially blank "canvas" is iteratively updated. The model learns from real artists by training on many painting videos. Our approach incorporates text and region understanding to define a set of painting "instructions" and updates the canvas with a novel diffusion-based renderer. The method extrapolates beyond the limited, acrylic style paintings on which it has been trained, showing plausible results for a wide range of artistic styles and genres.
- Abstract(参考訳): 入力絵が与えられた場合、どのように塗られたかのタイムラプス映像を再構成する。
我々はこれを自己回帰画像生成問題として定式化し、初期空白の「キャンバス」を反復的に更新する。
モデルは、多くのペイントビデオのトレーニングによって、実際のアーティストから学習する。
本手法では,テキストと領域理解を取り入れて絵画の「指示」を定義し,新しい拡散型レンダラーでキャンバスを更新する。
この方法は、訓練された限られたアクリル様式の絵画を外挿し、幅広い芸術様式やジャンルのもっともらしい結果を示す。
関連論文リスト
- LPGen: Enhancing High-Fidelity Landscape Painting Generation through Diffusion Model [1.7966001353008776]
本稿では,ランドスケープ・ペインティング・ジェネレーションのための高忠実かつ制御可能なモデルLPGenを提案する。
拡散モデルに画像プロンプトを統合する新しいマルチモーダルフレームワークを提案する。
我々は、画像とテキストのプロンプトの互換性を確保するために、分離されたクロスアテンション戦略を実装し、マルチモーダル画像生成を容易にする。
論文 参考訳(メタデータ) (2024-07-24T12:32:24Z) - ProcessPainter: Learn Painting Process from Sequence Data [27.9875429986135]
画家の絵画の過程は本質的に段階的に変化しており、異なる画家や様式によって大きく異なる。
従来のストロークベースのレンダリング手法は、画像をブラシストロークのシーケンスに分解するが、アーティストの真正なプロセスの複製には不十分である。
ProcessPainterは、最初は合成データに基づいて事前訓練され、その後、特定のアーティストの絵のシーケンスで微調整されるテキスト・ビデオ・モデルである。
論文 参考訳(メタデータ) (2024-06-10T07:18:41Z) - Stroke-based Neural Painting and Stylization with Dynamically Predicted
Painting Region [66.75826549444909]
ストロークベースのレンダリングは、ストロークのセットで画像を再現することを目的としている。
本研究では,現在のキャンバスに基づいて絵画領域を予測する合成ニューラルネットワークを提案する。
我々は、新しい微分可能な距離変換損失を伴って、ストロークベースのスタイル転送に拡張する。
論文 参考訳(メタデータ) (2023-09-07T06:27:39Z) - Reference-based Painterly Inpainting via Diffusion: Crossing the Wild
Reference Domain Gap [80.19252970827552]
RefPaintは、野生の参照ドメインギャップを横断して、新しいオブジェクトをアートワークに埋め込む新しいタスクである。
提案手法は,他の方法では達成し難い参照オブジェクトで絵を描くことができる。
論文 参考訳(メタデータ) (2023-07-20T04:51:10Z) - Inversion-Based Style Transfer with Diffusion Models [78.93863016223858]
以前の任意の例として誘導された芸術的画像生成法は、しばしば形状変化の制御や要素の伝達に失敗する。
画像のキー情報を効率よく正確に学習できるインバージョンベースのスタイル転送手法(InST)を提案する。
論文 参考訳(メタデータ) (2022-11-23T18:44:25Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - Intelli-Paint: Towards Developing Human-like Painting Agents [19.261822105543175]
そこで本研究では,より人間的な絵画スタイルを示しながら,出力キャンバスの生成を学習する新しい絵画手法を提案する。
Intelli-Paintは1)プログレッシブな階層化戦略から成り、エージェントはまず、各前景オブジェクトをプログレッシブな方法で追加する前に、自然の背景を表現できる。
また,筆画エージェントが各画像領域にセマンティック・アウェアで注目を移すのに役立つ,新しいシーケンシャルなブラシストローク誘導戦略を導入する。
論文 参考訳(メタデータ) (2021-12-16T14:56:32Z) - In&Out : Diverse Image Outpainting via GAN Inversion [89.84841983778672]
image outpaintingは、利用可能なコンテンツを超えて、入力画像の意味的に一貫した拡張を求める。
本研究では、生成的対向ネットワークの反転の観点から問題を定式化する。
私達の発電機はイメージの彼らの共同潜入コードそして個々の位置で調節されるマイクロ パッチをレンダリングします。
論文 参考訳(メタデータ) (2021-04-01T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。