論文の概要: Semantic Segmentation in Art Paintings
- arxiv url: http://arxiv.org/abs/2203.03238v1
- Date: Mon, 7 Mar 2022 09:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 23:58:25.373344
- Title: Semantic Segmentation in Art Paintings
- Title(参考訳): 絵画における意味セグメンテーション
- Authors: Nadav Cohen, Yael Newman, Ariel Shamir
- Abstract要約: 領域適応を用いた絵画のセマンティックセグメンテーションの教師なし手法を提案する。
本手法は,PASCAL VOC 2012データセット上でのスタイルトランスファーを用いて,特定の芸術スタイルの擬似絵画のトレーニングセットを作成する。
本手法は,DRAMの特定の芸術的動作だけでなく,他の見えない動作に対しても,より優れたセグメンテーション結果を提供する。
- 参考スコア(独自算出の注目度): 18.2506797571652
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Semantic segmentation is a difficult task even when trained in a supervised
manner on photographs. In this paper, we tackle the problem of semantic
segmentation of artistic paintings, an even more challenging task because of a
much larger diversity in colors, textures, and shapes and because there are no
ground truth annotations available for segmentation. We propose an unsupervised
method for semantic segmentation of paintings using domain adaptation. Our
approach creates a training set of pseudo-paintings in specific artistic styles
by using style-transfer on the PASCAL VOC 2012 dataset, and then applies domain
confusion between PASCAL VOC 2012 and real paintings. These two steps build on
a new dataset we gathered called DRAM (Diverse Realism in Art Movements)
composed of figurative art paintings from four movements, which are highly
diverse in pattern, color, and geometry. To segment new paintings, we present a
composite multi-domain adaptation method that trains on each sub-domain
separately and composes their solutions during inference time. Our method
provides better segmentation results not only on the specific artistic
movements of DRAM, but also on other, unseen ones. We compare our approach to
alternative methods and show applications of semantic segmentation in art
paintings. The code and models for our approach are publicly available at:
https://github.com/Nadavc220/SemanticSegmentationInArtPaintings.
- Abstract(参考訳): 写真に教師付きで訓練しても意味的セグメンテーションは難しい課題である。
本稿では,芸術絵画のセマンティックセグメンテーション(セマンティックセグメンテーション)の問題に取り組み,色,テクスチャ,形状の多様性がはるかに大きく,また,セグメンテーションのための根拠となる真理アノテーションが存在しないため,さらに課題となる。
領域適応を用いた絵画のセマンティックセグメンテーションの教師なし手法を提案する。
提案手法は,PASCAL VOC 2012データセットのスタイルトランスファーを用いて,特定の芸術様式の擬似絵画のトレーニングセットを作成し,PASCAL VOC 2012と実際の絵画とのドメイン混同を適用した。
これらの2つのステップは、DRAM(Diverse Realism in Art Movements)と呼ばれる新しいデータセットの上に構築されています。
新しい絵画を分割するために,各サブドメインを個別に訓練し,推論時間にその解を構成する複合多領域適応法を提案する。
本手法は,DRAMの特定の芸術的動作だけでなく,他の見えない動作に対しても,より良いセグメンテーション結果を提供する。
本手法を代替手法と比較し,絵画における意味セグメンテーションの適用例を示す。
このアプローチのコードとモデルは、https://github.com/Nadavc220/SemanticSegmentationInArtPaintingsで公開されています。
関連論文リスト
- Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - Learning Inclusion Matching for Animation Paint Bucket Colorization [76.4507878427755]
ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
論文 参考訳(メタデータ) (2024-03-27T08:32:48Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - PaintSeg: Training-free Segmentation via Painting [50.17936803209125]
PaintSegは、トレーニングなしでオブジェクトをセグメンテーションするための新しい教師なしのメソッドである。
前者は前景をマスキングして背景を埋め、後者は前景の欠落部分を回復しながら背景をマスキングする。
実験の結果、PaintSegは、粗いマスクプロンプト、ボックスプロンプト、ポイントプロンプトセグメンテーションタスクにおいて、既存のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-30T20:43:42Z) - Fuse and Attend: Generalized Embedding Learning for Art and Sketches [6.375982344506753]
本稿では,様々な領域にまたがる一般化を目的とした新しい埋め込み学習手法を提案する。
PACS(Photo, Art painting, Cartoon, Sketch)データセット上で,Domainフレームワークを用いた手法の有効性を示す。
論文 参考訳(メタデータ) (2022-08-20T14:44:11Z) - Boosting Image Outpainting with Semantic Layout Prediction [18.819765707811904]
我々は、画像ドメインの代わりにセマンティックセグメンテーションドメイン内の領域を拡張するために、GANを訓練する。
別のGANモデルは、拡張されたセマンティックレイアウトに基づいて実際の画像を合成するように訓練されている。
我々のアプローチは意味的な手がかりをより容易に扱えるので、複雑なシナリオではよりうまく機能します。
論文 参考訳(メタデータ) (2021-10-18T13:09:31Z) - Paint by Word [32.05329583044764]
ゼロショット・セマンティック・イメージ・ペインティングの問題点について検討する。
具体的な色やセマンティックな概念の有限セットのみを用いて画像に修正を描き込む代わりに、オープンなフルテキスト記述に基づいてセマンティックペイントを作成する方法について尋ねる。
本手法は,現実的な画像の最先端生成モデルと,最先端のテキスト画像意味的類似性ネットワークを組み合わせる。
論文 参考訳(メタデータ) (2021-03-19T17:59:08Z) - Words as Art Materials: Generating Paintings with Sequential GANs [8.249180979158815]
大規模な分散データセット上での芸術画像の生成について検討する。
このデータセットには、形状、色、内容など、バリエーションのあるイメージが含まれている。
本稿では,逐次生成適応型ネットワークモデルを提案する。
論文 参考訳(メタデータ) (2020-07-08T19:17:14Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。