論文の概要: One-Shot Synthesis of Images and Segmentation Masks
- arxiv url: http://arxiv.org/abs/2209.07547v1
- Date: Thu, 15 Sep 2022 18:00:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:08:44.036027
- Title: One-Shot Synthesis of Images and Segmentation Masks
- Title(参考訳): 画像とセグメンテーションマスクのワンショット合成
- Authors: Vadim Sushko, Dan Zhang, Juergen Gall, Anna Khoreva
- Abstract要約: 画像合成とGAN(Generative Adversarial Network)とのセグメンテーションマスクの併用により,画像データをピクセル単位のアノテーションで収集する作業の削減が期待されている。
高忠実な画像マスク合成を学習するために、既存のGANアプローチは、大量の画像データを必要とする事前学習フェーズを必要とする。
我々は,1ショット方式で生成した画像に正確に整合したセグメンテーションマスクの合成を可能にするOSMISモデルを提案する。
- 参考スコア(独自算出の注目度): 28.119303696418882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint synthesis of images and segmentation masks with generative adversarial
networks (GANs) is promising to reduce the effort needed for collecting image
data with pixel-wise annotations. However, to learn high-fidelity image-mask
synthesis, existing GAN approaches first need a pre-training phase requiring
large amounts of image data, which limits their utilization in restricted image
domains. In this work, we take a step to reduce this limitation, introducing
the task of one-shot image-mask synthesis. We aim to generate diverse images
and their segmentation masks given only a single labelled example, and
assuming, contrary to previous models, no access to any pre-training data. To
this end, inspired by the recent architectural developments of single-image
GANs, we introduce our OSMIS model which enables the synthesis of segmentation
masks that are precisely aligned to the generated images in the one-shot
regime. Besides achieving the high fidelity of generated masks, OSMIS
outperforms state-of-the-art single-image GAN models in image synthesis quality
and diversity. In addition, despite not using any additional data, OSMIS
demonstrates an impressive ability to serve as a source of useful data
augmentation for one-shot segmentation applications, providing performance
gains that are complementary to standard data augmentation techniques. Code is
available at https://github.com/ boschresearch/one-shot-synthesis
- Abstract(参考訳): 画像合成とGAN(Generative Adversarial Network)とのセグメンテーションマスクの併用により,画像データをピクセル単位のアノテーションで収集する作業の削減が期待されている。
しかし、高忠実度画像マスク合成を学習するためには、既存のGANアプローチでは、まず大量の画像データを必要とする事前学習フェーズが必要である。
本研究では,この制限を減らすための一歩を踏み出し,ワンショット画像マスク合成のタスクを導入する。
我々は,単一のラベル付き例のみを付与した多様な画像とセグメンテーションマスクを生成し,従来のモデルとは対照的に,事前学習データにアクセスできないことを仮定する。
この目的のために, 単一画像GANの最近のアーキテクチャ開発に触発されたOSMISモデルを導入し, ワンショット方式で生成した画像に正確に整合したセグメンテーションマスクの合成を可能にする。
生成マスクの忠実度の向上に加えて、OSMISは画像合成の品質と多様性において最先端の単一イメージGANモデルより優れている。
さらに、追加データを使用しないにもかかわらず、OSMISはワンショットセグメンテーションアプリケーションの有用なデータ拡張の源として機能し、標準的なデータ拡張技術に補完するパフォーマンス向上を提供するという印象的な能力を示している。
コードはhttps://github.com/ boschresearch/one-shot- synthesisで入手できる。
関連論文リスト
- Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - IIDM: Image-to-Image Diffusion Model for Semantic Image Synthesis [8.080248399002663]
本稿では,セマンティック画像合成を画像認識タスクとして扱う。
スタイル参照はまずランダムノイズで汚染され、その後IIDMによって徐々に認知される。
改良,色変換,モデルアンサンブルの3つの手法が提案され,生成品質がさらに向上した。
論文 参考訳(メタデータ) (2024-03-20T08:21:00Z) - Learning Vision from Models Rivals Learning Vision from Data [54.43596959598465]
合成画像と合成キャプションのみから視覚表現を学習するための新しいアプローチであるSynCLRを紹介する。
LLMを用いて画像キャプションの大規模なデータセットを合成し,既製のテキスト・ツー・イメージモデルを用いて合成キャプションに対応する複数の画像を生成する。
比較学習によって合成画像の視覚的表現学習を行い、同じ字幕を共有するイメージを正のペアとして扱う。
論文 参考訳(メタデータ) (2023-12-28T18:59:55Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Less is More: Unsupervised Mask-guided Annotated CT Image Synthesis with
Minimum Manual Segmentations [2.1785903900600316]
医用画像合成のための新しい手法,すなわちunsupervised Mask (UM)-guided synthesisを提案する。
UM誘導合成は、忠実度、多様性、有用性が著しく高い高品質な合成画像を提供する。
論文 参考訳(メタデータ) (2023-03-19T20:30:35Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。