論文の概要: MI^2GAN: Generative Adversarial Network for Medical Image Domain
Adaptation using Mutual Information Constraint
- arxiv url: http://arxiv.org/abs/2007.11180v2
- Date: Thu, 30 Jul 2020 07:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 23:13:18.567908
- Title: MI^2GAN: Generative Adversarial Network for Medical Image Domain
Adaptation using Mutual Information Constraint
- Title(参考訳): MI^2GAN:相互情報制約を用いた医用画像領域適応のための生成アドバイザラルネットワーク
- Authors: Xinpeng Xie, Jiawei Chen, Yuexiang Li, Linlin Shen, Kai Ma and Yefeng
Zheng
- Abstract要約: 本稿では,ドメイン間I2I翻訳中に画像コンテンツを保持する新しいGANを提案する。
特に、ソース画像と翻訳画像の両方のドメイン情報からコンテンツ特徴を分離する。
提案したMI$2$GANは,大腸内視鏡画像を用いたポリープセグメンテーションと,眼底画像における光ディスクとカップのセグメンテーションの2つの課題について評価した。
- 参考スコア(独自算出の注目度): 47.07869311690419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain shift between medical images from multicentres is still an open
question for the community, which degrades the generalization performance of
deep learning models. Generative adversarial network (GAN), which synthesize
plausible images, is one of the potential solutions to address the problem.
However, the existing GAN-based approaches are prone to fail at preserving
image-objects in image-to-image (I2I) translation, which reduces their
practicality on domain adaptation tasks. In this paper, we propose a novel GAN
(namely MI$^2$GAN) to maintain image-contents during cross-domain I2I
translation. Particularly, we disentangle the content features from domain
information for both the source and translated images, and then maximize the
mutual information between the disentangled content features to preserve the
image-objects. The proposed MI$^2$GAN is evaluated on two tasks---polyp
segmentation using colonoscopic images and the segmentation of optic disc and
cup in fundus images. The experimental results demonstrate that the proposed
MI$^2$GAN can not only generate elegant translated images, but also
significantly improve the generalization performance of widely used deep
learning networks (e.g., U-Net).
- Abstract(参考訳): 深層学習モデルの一般化性能を低下させるため,マルチセンターからの医療画像のドメインシフトは,コミュニティにとって依然としてオープンな問題である。
実現可能な画像を合成するgan(generative adversarial network)は、この問題に対処する潜在的な解決策の1つである。
しかし、既存のGANベースのアプローチは、イメージ・ツー・イメージ(I2I)翻訳における画像オブジェクトの保存に失敗する傾向にあり、ドメイン適応タスクの実用性が低下する。
本稿では,ドメイン間I2I翻訳において画像コンテンツを維持する新しいGAN(MI$^2$GAN)を提案する。
特に、ソースと翻訳画像の両方のドメイン情報からコンテンツ特徴を分離し、画像オブジェクトを保存するために、異種コンテンツ特徴間の相互情報を最大化する。
提案したMI$2$GANは,大腸内視鏡画像を用いたポリプセグメンテーションと,眼底画像における光ディスクとカップのセグメンテーションの2つの課題について評価した。
実験の結果,提案するmi$^2$ganは,エレガントな翻訳画像を生成するだけでなく,広く使用されている深層学習ネットワーク(例えばu-net)の一般化性能を大幅に向上できることがわかった。
関連論文リスト
- I2I-Galip: Unsupervised Medical Image Translation Using Generative Adversarial CLIP [30.506544165999564]
ペアの例が存在しないため、画像から画像への翻訳は難しい作業である。
我々はイメージ・ツー・イメージ・ジェネレーティブ・アドバイザリアル・CLIP (I2I-Galip) という新しい画像・画像変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T01:44:50Z) - The Dawn of KAN in Image-to-Image (I2I) Translation: Integrating Kolmogorov-Arnold Networks with GANs for Unpaired I2I Translation [0.0]
Kolmogorov-Arnold Network (KAN)は、生成AIにおける多層パーセプトロン(MLP)を効果的に置き換えることができる。
より広範な生成型AIドメインにおいて、Kanは貴重なコンポーネントになり得る、と研究は示唆している。
論文 参考訳(メタデータ) (2024-08-15T15:26:12Z) - SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Multimodal Image-to-Image Translation via Mutual Information Estimation
and Maximization [16.54980086211836]
マルチモーダル画像画像変換 (Multimodal image-to-image translation, I2IT) は、ソース領域の入力画像が与えられた対象領域内の複数の可能な画像を探索する条件分布を学習することを目的としている。
このような条件分布をモデル化するために、条件生成逆ネットワーク(cGAN)がよく用いられる。
本稿では,cGANにおける潜在コードと出力画像間の相互情報を明示的に推定し,最大化する手法を提案する。
論文 参考訳(メタデータ) (2020-08-08T14:09:23Z) - GMM-UNIT: Unsupervised Multi-Domain and Multi-Modal Image-to-Image
Translation via Attribute Gaussian Mixture Modeling [66.50914391679375]
unsupervised image-to-image translation (UNIT) は、未経験の訓練画像を用いて、複数の視覚領域間のマッピングを学習することを目的としている。
最近の研究は、複数のドメインで顕著な成功を示しているが、それらは2つの主要な制限に悩まされている。
GMM-UNITという,空間にGMMを組み込むコンテンツ属性不整合表現に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-03-15T10:18:56Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。