論文の概要: Adversarial Segmentation Loss for Sketch Colorization
- arxiv url: http://arxiv.org/abs/2102.06192v1
- Date: Thu, 11 Feb 2021 18:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:13:36.786968
- Title: Adversarial Segmentation Loss for Sketch Colorization
- Title(参考訳): スケッチ彩色における逆セグメンテーション損失
- Authors: Samet Hicsonmez, Nermin Samet, Emre Akbas, Pinar Duygulu
- Abstract要約: スケッチやエッジマップからカラー画像を生成する新しい手法を提案する。
セグメンテーション情報は、スケッチの着色のための貴重なガイダンスを提供するかもしれないと我々は主張する。
我々のモデルは、FID測定値の基準値を最大35ポイント改善する。
- 参考スコア(独自算出の注目度): 14.681690787310103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new method for generating color images from sketches or edge
maps. Current methods either require some form of additional user-guidance or
are limited to the "paired" translation approach. We argue that segmentation
information could provide valuable guidance for sketch colorization. To this
end, we propose to leverage semantic image segmentation, as provided by a
general purpose panoptic segmentation network, to create an additional
adversarial loss function. Our loss function can be integrated to any baseline
GAN model. Our method is not limited to datasets that contain segmentation
labels, and it can be trained for "unpaired" translation tasks. We show the
effectiveness of our method on four different datasets spanning scene level
indoor, outdoor, and children book illustration images using qualitative,
quantitative and user study analysis. Our model improves its baseline up to 35
points on the FID metric. Our code and pretrained models can be found at
https://github.com/giddyyupp/AdvSegLoss.
- Abstract(参考訳): スケッチやエッジマップからカラー画像を生成する新しい方法を紹介します。
現在の方法は、追加のユーザガイダンスを必要とするか、あるいは"ペア化"翻訳アプローチに制限されている。
セグメンテーション情報はスケッチのカラー化に有用なガイダンスとなるかもしれない。
そこで本研究では,汎用panopticセグメンテーションネットワークが提供する意味的イメージセグメンテーションを活用し,新たな逆損失関数を作成することを提案する。
我々の損失関数は任意のベースラインGANモデルに統合できる。
本手法は,セグメンテーションラベルを含むデータセットに限らず,"不適切な"翻訳タスクのトレーニングを行うことができる。
本手法は, 質的, 量的, ユーザ的分析を用いて, 屋内, 屋外, 子どものイラストレーション画像にまたがる4つの異なるデータセットに対して有効性を示す。
私たちのモデルは、FIDメトリックのベースラインを最大35ポイント改善します。
私たちのコードと事前トレーニングされたモデルは、https://github.com/giddyyupp/AdvSegLoss.comで参照できます。
関連論文リスト
- Joint Dense-Point Representation for Contour-Aware Graph Segmentation [2.138299283227551]
本稿では,点と画素の輪郭表現を共同で学習することにより,グラフと高密度セグメンテーション技術を組み合わせた新しい手法を提案する。
これは、不整合目的がネットワークを識別的・輪郭的特徴の学習から制限する典型的なグラフ分割法における欠陥に対処する。
提案手法はいくつかのケストX線データセットで検証され,セグメンテーション安定性と精度の明確な改善が示された。
論文 参考訳(メタデータ) (2023-06-21T10:07:17Z) - Improving Sketch Colorization using Adversarial Segmentation Consistency [12.55972766570669]
スケッチからカラー画像を生成する新しい手法を提案する。
汎用パノプティカルセグメンテーションネットワークからのセマンティックイメージセグメンテーションを利用して、新たな対向損失関数を生成する。
本手法はセグメンテーションラベル付きデータセットに限らず,非ペア翻訳にも適用可能である。
論文 参考訳(メタデータ) (2023-01-20T14:07:30Z) - From colouring-in to pointillism: revisiting semantic segmentation
supervision [48.637031591058175]
本稿では,意味的セグメンテーションアノテーションに対するポジリスト的アプローチを提案する。
Open Imagesデータセットで4,171のクラスに2260万のポイントラベルを収集してリリースしました。
論文 参考訳(メタデータ) (2022-10-25T16:42:03Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - One Sketch for All: One-Shot Personalized Sketch Segmentation [84.45203849671003]
そこで本研究では,最初のワンショットパーソナライズドスケッチセグメンテーション手法を提案する。
我々は、同じカテゴリに属するすべてのスケッチを、特定の部分アノテーション付きの1つのスケッチでセグメント化することを目指している。
私たちは、例に埋め込まれた部分のセマンティクスを保存し、入力スタイルと抽象化に堅牢です。
論文 参考訳(メタデータ) (2021-12-20T20:10:44Z) - Sparse Object-level Supervision for Instance Segmentation with Pixel
Embeddings [4.038011160363972]
ほとんどの最先端のインスタンスセグメンテーションメソッドは、密接な注釈付き画像でトレーニングする必要があります。
非空間埋め込みに基づく提案フリーセグメンテーション手法を提案する。
本研究では, 異なる顕微鏡モードにおける2次元および3次元分割問題の解法について検討した。
論文 参考訳(メタデータ) (2021-03-26T16:36:56Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - A Few Guidelines for Incremental Few-Shot Segmentation [57.34237650765928]
事前訓練されたセグメンテーションモデルと、新しいクラスを含む画像が少ないことを前提として、我々が目指すのは、以前に見たセグメンテーション能力を維持しながら、新しいクラスをセグメンテーションすることである。
このシナリオにおけるエンド・ツー・エンドのトレーニングの主な問題はどのようなものかを示します。
一 バッチ正規化統計を、バッチ正規化で修正できる新しいクラスへ向けての漂流すること。
二 旧クラスの忘れ物 正規化戦略で解決できるもの。
論文 参考訳(メタデータ) (2020-11-30T20:45:56Z) - Contrastive Rendering for Ultrasound Image Segmentation [59.23915581079123]
米国の画像にシャープな境界がないことは、セグメンテーションに固有の課題である。
我々は,US画像における境界推定を改善するための,新しい,効果的なフレームワークを提案する。
提案手法は最先端の手法より優れており,臨床応用の可能性も高い。
論文 参考訳(メタデータ) (2020-10-10T07:14:03Z) - Learning to Segment from Scribbles using Multi-scale Adversarial
Attention Gates [16.28285034098361]
弱い教師付き学習は、スクリブルのような弱いアノテーション形式に依存してモデルを訓練することができる。
我々は、複数の解像度でリアルなセグメンテーションマスクを生成するために、マルチスケールのGANをトレーニングし、スクリブルを使用して画像中の正しい位置を学習する。
モデルの成功の中心は、敵の信号が先行した形状として振る舞うことを条件とした、新しいアテンションゲーティング機構である。
論文 参考訳(メタデータ) (2020-07-02T14:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。