論文の概要: Improving Sketch Colorization using Adversarial Segmentation Consistency
- arxiv url: http://arxiv.org/abs/2301.08590v1
- Date: Fri, 20 Jan 2023 14:07:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 13:11:41.889564
- Title: Improving Sketch Colorization using Adversarial Segmentation Consistency
- Title(参考訳): 逆セグメンテーション一貫性を用いたスケッチカラー化の改良
- Authors: Samet Hicsonmez, Nermin Samet, Emre Akbas, Pinar Duygulu
- Abstract要約: スケッチからカラー画像を生成する新しい手法を提案する。
汎用パノプティカルセグメンテーションネットワークからのセマンティックイメージセグメンテーションを利用して、新たな対向損失関数を生成する。
本手法はセグメンテーションラベル付きデータセットに限らず,非ペア翻訳にも適用可能である。
- 参考スコア(独自算出の注目度): 12.55972766570669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new method for producing color images from sketches. Current
solutions in sketch colorization either necessitate additional user instruction
or are restricted to the "paired" translation strategy. We leverage semantic
image segmentation from a general-purpose panoptic segmentation network to
generate an additional adversarial loss function. The proposed loss function is
compatible with any GAN model. Our method is not restricted to datasets with
segmentation labels and can be applied to unpaired translation tasks as well.
Using qualitative, and quantitative analysis, and based on a user study, we
demonstrate the efficacy of our method on four distinct image datasets. On the
FID metric, our model improves the baseline by up to 35 points. Our code,
pretrained models, scripts to produce newly introduced datasets and
corresponding sketch images are available at
https://github.com/giddyyupp/AdvSegLoss.
- Abstract(参考訳): スケッチからカラー画像を生成する新しい手法を提案する。
スケッチのカラー化における現在のソリューションは、追加のユーザ命令を必要とするか、あるいは"ペア化"翻訳戦略に制限されている。
汎用panopticセグメンテーションネットワークからのセマンティック画像セグメンテーションを活用し,新たな逆損失関数を生成する。
提案した損失関数は任意のGANモデルと互換性がある。
本手法はセグメンテーションラベルを持つデータセットに制限されず,非ペア翻訳タスクにも適用可能である。
質的,定量的な分析を行い,ユーザスタディに基づいて4つの異なる画像データセットに対する提案手法の有効性を示す。
fidメトリクスでは、このモデルはベースラインを最大35ポイント改善します。
私たちのコード、事前トレーニングされたモデル、新しく導入されたデータセットと対応するスケッチイメージを生成するスクリプトは、https://github.com/giddyyupp/advsegloss.com/で利用可能です。
関連論文リスト
- ColorizeDiffusion: Adjustable Sketch Colorization with Reference Image and Text [5.675944597452309]
事前学習したCLIP画像エンコーダの異なる画像トークンを利用した画像誘導潜時拡散モデルの2つのバリエーションを紹介する。
重み付きテキスト入力を用いて結果の逐次的調整を行うための,対応する操作手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T22:46:12Z) - Joint Dense-Point Representation for Contour-Aware Graph Segmentation [2.138299283227551]
本稿では,点と画素の輪郭表現を共同で学習することにより,グラフと高密度セグメンテーション技術を組み合わせた新しい手法を提案する。
これは、不整合目的がネットワークを識別的・輪郭的特徴の学習から制限する典型的なグラフ分割法における欠陥に対処する。
提案手法はいくつかのケストX線データセットで検証され,セグメンテーション安定性と精度の明確な改善が示された。
論文 参考訳(メタデータ) (2023-06-21T10:07:17Z) - ClipCrop: Conditioned Cropping Driven by Vision-Language Model [90.95403416150724]
我々は、堅牢でユーザ意図的な収穫アルゴリズムを構築する基盤として、視覚言語モデルを活用している。
そこで本研究では,ユーザの意図を反映したテキストや画像クエリを用いて,トリミングを行う手法を開発した。
私たちのパイプライン設計では、小さなデータセットでテキスト条件の美学を学習することができます。
論文 参考訳(メタデータ) (2022-11-21T14:27:07Z) - Learning to Annotate Part Segmentation with Gradient Matching [58.100715754135685]
本稿では,事前学習したGANを用いて,高品質な画像を生成することで,半教師付き部分分割タスクに対処することに焦点を当てる。
特に、アノテータ学習を学習から学習までの問題として定式化する。
提案手法は,実画像,生成された画像,さらには解析的に描画された画像を含む,幅広いラベル付き画像からアノテータを学習可能であることを示す。
論文 参考訳(メタデータ) (2022-11-06T01:29:22Z) - From colouring-in to pointillism: revisiting semantic segmentation
supervision [48.637031591058175]
本稿では,意味的セグメンテーションアノテーションに対するポジリスト的アプローチを提案する。
Open Imagesデータセットで4,171のクラスに2260万のポイントラベルを収集してリリースしました。
論文 参考訳(メタデータ) (2022-10-25T16:42:03Z) - Estimating Appearance Models for Image Segmentation via Tensor Factorization [0.0]
本稿では,画像からの外観モデルを直接推定する手法を提案する。
本手法は,潜時変モデルに対するテンソル分解に基づく推定器への入力として,画像からの局所的な高次色統計値を用いる。
このアプローチは、マルチリージョン画像のモデルを推定し、事前のユーザインタラクションなしで自動的にリージョン比を出力することができる。
論文 参考訳(メタデータ) (2022-08-16T17:21:00Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Adversarial Segmentation Loss for Sketch Colorization [14.681690787310103]
スケッチやエッジマップからカラー画像を生成する新しい手法を提案する。
セグメンテーション情報は、スケッチの着色のための貴重なガイダンスを提供するかもしれないと我々は主張する。
我々のモデルは、FID測定値の基準値を最大35ポイント改善する。
論文 参考訳(メタデータ) (2021-02-11T18:54:56Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。