論文の概要: Adversarial Mutual Leakage Network for Cell Image Segmentation
- arxiv url: http://arxiv.org/abs/2203.10455v1
- Date: Sun, 20 Mar 2022 04:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:52:53.079582
- Title: Adversarial Mutual Leakage Network for Cell Image Segmentation
- Title(参考訳): 細胞画像セグメンテーションのための相互漏洩ネットワーク
- Authors: Hiroki Tsuda and Kazuhiro Hotta
- Abstract要約: GANを用いた3つのセグメンテーション手法と,ジェネレータと識別器間の情報漏洩を提案する。
ATA-Moduleは、ディスクリミネータから重要な情報をジェネレータに送信する。
トップダウンPDAモジュールは、ジェネレータの画素単位の難易度に基づくアテンションマップを判別器にリークする。
AML-Netは、ジェネレータと識別器の間の情報を相互にリークする。
- 参考スコア(独自算出の注目度): 14.188591284153164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose three segmentation methods using GAN and information leakage
between generator and discriminator. First, we propose an Adversarial Training
Attention Module (ATA-Module) that uses an attention mechanism from the
discriminator to the generator to enhance and leak important information in the
discriminator. ATA-Module transmits important information to the generator from
the discriminator. Second, we propose a Top-Down Pixel-wise Difficulty
Attention Module (Top-Down PDA-Module) that leaks an attention map based on
pixel-wise difficulty in the generator to the discriminator. The generator
trains to focus on pixel-wise difficulty, and the discriminator uses the
difficulty information leaked from the generator for classification. Finally,
we propose an Adversarial Mutual Leakage Network (AML-Net) that mutually leaks
the information each other between the generator and the discriminator. By
using the information of the other network, it is able to train more
efficiently than ordinary segmentation models. Three proposed methods have been
evaluated on two datasets for cell image segmentation. The experimental results
show that the segmentation accuracy of AML-Net was much improved in comparison
with conventional methods.
- Abstract(参考訳): GANを用いた3つのセグメンテーション手法と,ジェネレータと識別器間の情報漏洩を提案する。
まず, 識別器からジェネレータへの注意機構を用いて, 識別器の重要情報を強化・漏洩する, 適応型訓練注意モジュール(ATA-Module)を提案する。
ATA-Moduleは、重要な情報を識別器からジェネレータに送信する。
第2に,画素単位の難易度に基づく注目マップを識別器にリークするTop-Down Pixel-wise Difficulty Attention Module (Top-Down PDA-Module)を提案する。
ジェネレータは画素単位の難易度に集中するよう訓練し、判別器はジェネレータから漏れた難易度情報を用いて分類する。
最後に,生成元と識別器間の情報を相互にリークする逆相互漏洩ネットワーク(AML-Net)を提案する。
他のネットワークの情報を利用することで、通常のセグメンテーションモデルよりも効率的にトレーニングすることができる。
セルイメージセグメンテーションのための2つのデータセットに対して,提案手法を3つ評価した。
実験の結果,従来の手法に比べてAML-Netのセグメンテーション精度は大幅に向上した。
関連論文リスト
- Prompt Optimization via Adversarial In-Context Learning [51.18075178593142]
adv-ICLは、ジェネレータとディスクリミネータの間の2プレイヤーゲームとして実装される。
ジェネレータは、判別器を騙すのに十分な出力を生成する。
本稿では,Adv-ICLが最先端のプロンプト最適化技術を大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-12-05T09:44:45Z) - Discriminative Co-Saliency and Background Mining Transformer for
Co-Salient Object Detection [111.04994415248736]
我々は差別的共存とバックグラウンドマイニング・トランスフォーマー・フレームワーク(DMT)を提案する。
我々は2種類の事前定義されたトークンを用いて、コントラスト誘起画素間相関モジュールとコサリエンストークン間相関モジュールを用いて、コサリエンシと背景情報をマイニングする。
3つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-30T15:56:47Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Semi-Supervised Semantic Segmentation of Vessel Images using Leaking
Perturbations [1.5791732557395552]
Leaking GANは、網膜血管セグメンテーションのためのGANベースの半教師付きアーキテクチャである。
私たちのキーとなるアイデアは、ジェネレータから情報を漏らすことで識別器を汚染することです。
これにより、より穏健な世代がGANのトレーニングに役立ちます。
論文 参考訳(メタデータ) (2021-10-22T18:25:08Z) - Discriminative-Generative Representation Learning for One-Class Anomaly
Detection [22.500931323372303]
生成法と識別法を組み合わせた自己教師型学習フレームワークを提案する。
提案手法は,複数のベンチマークデータセットにおいて,最先端の処理性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-27T11:46:15Z) - DTGAN: Dual Attention Generative Adversarial Networks for Text-to-Image
Generation [8.26410341981427]
Dual Attention Generative Adversarial Network (DTGAN)は高品質でセマンティックな一貫性のある画像を合成できる。
提案モデルでは,テキスト関連チャネルや画素に注目するようにジェネレータを誘導する,チャネル対応および画素対応アテンションモジュールを導入している。
生成した画像の鮮明な形状と知覚的に均一な色分布を確保することにより、画像の解像度を高めるために、新しいタイプの視覚的損失を利用する。
論文 参考訳(メタデータ) (2020-11-05T08:57:15Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Interpreting Galaxy Deblender GAN from the Discriminator's Perspective [50.12901802952574]
本研究は、ネットワークの主要なコンポーネントである識別器の動作に焦点を当てるが、しばしば見落とされがちな役割を担っている。
本手法は, 生成銀河画像と地中真理画像とを区別する際に, 識別器の注意領域を明確に明らかにする。
論文 参考訳(メタデータ) (2020-01-17T04:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。