論文の概要: Focus on Content not Noise: Improving Image Generation for Nuclei
Segmentation by Suppressing Steganography in CycleGAN
- arxiv url: http://arxiv.org/abs/2308.01769v1
- Date: Thu, 3 Aug 2023 13:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 13:58:23.011734
- Title: Focus on Content not Noise: Improving Image Generation for Nuclei
Segmentation by Suppressing Steganography in CycleGAN
- Title(参考訳): ノイズのないコンテンツに注目して:サイクガンのステガノグラフィ抑制による核セグメンテーションのための画像生成の改善
- Authors: Jonas Utz, Tobias Weise, Maja Schlereth, Fabian Wagner, Mareike Thies,
Mingxuan Gu, Stefan Uderhardt, Katharina Breininger
- Abstract要約: 本稿では,DCTに基づく低域通過フィルタリングを用いて,ステガノグラフィーと呼ばれる隠れショートカット情報を生成画像から除去することを提案する。
我々はF1スコアの5.4ポイントをバニラサイクロンと比較して改善した。
- 参考スコア(独自算出の注目度): 1.564260789348333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Annotating nuclei in microscopy images for the training of neural networks is
a laborious task that requires expert knowledge and suffers from inter- and
intra-rater variability, especially in fluorescence microscopy. Generative
networks such as CycleGAN can inverse the process and generate synthetic
microscopy images for a given mask, thereby building a synthetic dataset.
However, past works report content inconsistencies between the mask and
generated image, partially due to CycleGAN minimizing its loss by hiding
shortcut information for the image reconstruction in high frequencies rather
than encoding the desired image content and learning the target task. In this
work, we propose to remove the hidden shortcut information, called
steganography, from generated images by employing a low pass filtering based on
the DCT. We show that this increases coherence between generated images and
cycled masks and evaluate synthetic datasets on a downstream nuclei
segmentation task. Here we achieve an improvement of 5.4 percentage points in
the F1-score compared to a vanilla CycleGAN. Integrating advanced
regularization techniques into the CycleGAN architecture may help mitigate
steganography-related issues and produce more accurate synthetic datasets for
nuclei segmentation.
- Abstract(参考訳): ニューラルネットワークのトレーニングのための顕微鏡画像のアノテーティングは、専門家の知識を必要とし、特に蛍光顕微鏡において、星間および星間変動に苦しむ面倒な作業である。
cycleganのような生成ネットワークは、プロセスを反転させ、所定のマスクの合成顕微鏡画像を生成し、合成データセットを構築することができる。
しかし、過去の作品では、所望の画像内容のエンコードや対象課題の学習よりも、高頻度で画像再構成のためのショートカット情報を隠蔽して損失を最小化することで、マスクと生成画像との間のコンテンツの不一致を報告している。
本研究では,DCTに基づく低域通過フィルタリングを用いて,ステガノグラフィーと呼ばれる隠れショートカット情報を生成画像から除去することを提案する。
生成した画像と周期マスクのコヒーレンスを高め、下流核分割タスクにおける合成データセットを評価する。
ここでは,F1スコアの5.4ポイントをバニラサイクルGANと比較して改善する。
高度な正則化技術をCycleGANアーキテクチャに統合することは、ステガノグラフィーに関連する問題を緩和し、核分割のためのより正確な合成データセットを生成するのに役立つ。
関連論文リスト
- HisynSeg: Weakly-Supervised Histopathological Image Segmentation via Image-Mixing Synthesis and Consistency Regularization [15.13875300007579]
HisynSegは画像混合合成と一貫性正規化に基づく弱教師付きセマンティックセマンティックセマンティクスフレームワークである。
HisynSegは3つのデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-30T13:10:48Z) - Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - One-Shot Synthesis of Images and Segmentation Masks [28.119303696418882]
画像合成とGAN(Generative Adversarial Network)とのセグメンテーションマスクの併用により,画像データをピクセル単位のアノテーションで収集する作業の削減が期待されている。
高忠実な画像マスク合成を学習するために、既存のGANアプローチは、大量の画像データを必要とする事前学習フェーズを必要とする。
我々は,1ショット方式で生成した画像に正確に整合したセグメンテーションマスクの合成を可能にするOSMISモデルを提案する。
論文 参考訳(メタデータ) (2022-09-15T18:00:55Z) - Multi-Modality Microscopy Image Style Transfer for Nuclei Segmentation [3.535158633337794]
本稿では,GAN(Generative Adversarial Network)に基づく顕微鏡的拡張手法を提案する。
他のスタイルの転送方法とは異なり、異なる細胞アッセイタイプや照明条件だけでなく、異なる画像モダリティも扱える。
我々は,様々な細胞アッセイ,照明条件,画像モダリティからなる2018年データサイエンスボウルデータセットを用いて,データ拡張を評価した。
論文 参考訳(メタデータ) (2021-11-23T20:19:20Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Generative Synthetic Augmentation using Label-to-Image Translation for
Nuclei Image Segmentation [0.0]
本稿では,エッジ構造を持つセマンティックラベルから実画像へマッピングする,ラベルから画像への変換を用いた合成拡張を提案する。
提案手法により,提案手法の精度が向上したことを計算および報告する。
論文 参考訳(メタデータ) (2020-04-21T16:10:11Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Lesion Conditional Image Generation for Improved Segmentation of
Intracranial Hemorrhage from CT Images [0.0]
データ拡張のためのCT画像を生成するために,病変条件付きジェネレーティブ・アドバイサル・ネットワークLcGANを提案する。
病変条件画像(segmented mask)は、訓練中にジェネレータとLcGANの判別器の両方に入力される。
完全畳み込みネットワーク(FCN)スコアと曖昧さを用いて画像の品質を定量化する。
論文 参考訳(メタデータ) (2020-03-30T23:32:54Z) - Residual-Sparse Fuzzy $C$-Means Clustering Incorporating Morphological
Reconstruction and Wavelet frames [146.63177174491082]
Fuzzy $C$-Means (FCM)アルゴリズムは、形態的再構成操作とタイトウェーブレットフレーム変換を組み込んでいる。
特徴集合とその理想値の間の残差に対して$ell_0$正規化項を付与することにより、改良されたFCMアルゴリズムを提案する。
合成, 医用, カラー画像に対する実験結果から, 提案アルゴリズムは効率的かつ効率的であり, 他のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-02-14T10:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。