論文の概要: Conditional Generation of Medical Images via Disentangled Adversarial
Inference
- arxiv url: http://arxiv.org/abs/2012.04764v1
- Date: Tue, 8 Dec 2020 22:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 20:57:22.192442
- Title: Conditional Generation of Medical Images via Disentangled Adversarial
Inference
- Title(参考訳): 逆相関推論による医用画像の条件付き生成
- Authors: Mohammad Havaei, Ximeng Mao, Yiping Wang, Qicheng Lao
- Abstract要約: 画像自体から学習し、スタイルや内容の異なる表現を学習し、この情報を使用して生成プロセスを制御する方法論を提案します。
一般に、2つの潜在変数モデルがより良い性能を実現し、生成した画像をより制御できることが示される。
- 参考スコア(独自算出の注目度): 5.855198111605814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic medical image generation has a huge potential for improving
healthcare through many applications, from data augmentation for training
machine learning systems to preserving patient privacy. Conditional Adversarial
Generative Networks (cGANs) use a conditioning factor to generate images and
have shown great success in recent years. Intuitively, the information in an
image can be divided into two parts: 1) content which is presented through the
conditioning vector and 2) style which is the undiscovered information missing
from the conditioning vector. Current practices in using cGANs for medical
image generation, only use a single variable for image generation (i.e.,
content) and therefore, do not provide much flexibility nor control over the
generated image. In this work we propose a methodology to learn from the image
itself, disentangled representations of style and content, and use this
information to impose control over the generation process. In this framework,
style is learned in a fully unsupervised manner, while content is learned
through both supervised learning (using the conditioning vector) and
unsupervised learning (with the inference mechanism). We undergo two novel
regularization steps to ensure content-style disentanglement. First, we
minimize the shared information between content and style by introducing a
novel application of the gradient reverse layer (GRL); second, we introduce a
self-supervised regularization method to further separate information in the
content and style variables. We show that in general, two latent variable
models achieve better performance and give more control over the generated
image. We also show that our proposed model (DRAI) achieves the best
disentanglement score and has the best overall performance.
- Abstract(参考訳): 合成医療画像生成は、データ拡張から機械学習システムのトレーニング、患者のプライバシーの保護に至るまで、多くのアプリケーションを通じて医療を改善する大きな可能性を秘めている。
条件付き逆数生成ネットワーク(cGAN)は画像生成に条件付け因子を使用し,近年大きな成功を収めている。
直感的には、画像内の情報は、1コンディショニングベクトルを介して提示されるコンテンツと、コンディショニングベクトルから欠落している未発見情報であるスタイルという2つの部分に分けられる。
医療画像生成にcGANを使うことの現在の実践は、画像生成に単一の変数(つまりコンテンツ)しか使用せず、生成した画像に対する柔軟性や制御をあまり提供しない。
本研究では,画像そのものから学習する手法,スタイルとコンテンツの絡み合った表現を提案し,その情報を用いて生成過程の制御を行う。
このフレームワークでは、スタイルは完全に教師なしの方法で学習され、コンテンツは教師なし学習(条件付ベクトルを用いた)と教師なし学習(推論機構による)の両方を通して学習される。
コンテンツスタイルの絡み合いを確実にするために、2つの新しい正規化手順を踏む。
まず,グラデーション・リバース・レイヤ(grl)の新たな応用を導入することで,コンテンツとスタイル間の共有情報を最小化し,さらに,コンテンツとスタイル変数の情報をさらに分離する自己教師あり正規化手法を提案する。
一般に、2つの潜在変数モデルがより良い性能を実現し、生成した画像をより制御できることが示される。
また,提案したモデル (DRAI) が, 最適不整合スコアを達成し, 全体的な性能が最良であることを示す。
関連論文リスト
- DAug: Diffusion-based Channel Augmentation for Radiology Image Retrieval and Classification [24.68697717585541]
生成モデルの出力を用いて知覚モデルの性能を向上させる携帯型手法を提案する。
具体的には、放射線画像を複数のチャネルに拡張し、病気が進行する傾向のある地域のヒートマップとして追加する。
本手法は, 生成モデルが正常画像と異常画像の分布を学習するという事実に動機付けられ, その知識は画像理解タスクの補完となる。
論文 参考訳(メタデータ) (2024-12-06T07:43:28Z) - Gen-SIS: Generative Self-augmentation Improves Self-supervised Learning [52.170253590364545]
Gen-SISは、ラベルのない画像データにのみ訓練された拡散ベースの拡張技術である。
これらの自己増強、すなわちバニラSSLエンコーダの埋め込みに基づく生成増強は、より強力なSSLエンコーダのトレーニングを促進することを示す。
論文 参考訳(メタデータ) (2024-12-02T16:20:59Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Style-Extracting Diffusion Models for Semi-Supervised Histopathology Segmentation [6.479933058008389]
スタイル抽出拡散モデルでは、下流タスクに有用な特徴のない画像を生成する。
本研究では,概念実証として自然画像データセット上での手法の有効性を示す。
患者間でのセグメンテーション結果の改善と性能変動の低減を図り, 得られた画像の付加価値を検証する。
論文 参考訳(メタデータ) (2024-03-21T14:36:59Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Metadata-enhanced contrastive learning from retinal optical coherence tomography images [7.932410831191909]
従来のコントラストフレームワークを新しいメタデータ強化戦略で拡張する。
本手法では,画像間のコントラスト関係の真のセットを近似するために,患者メタデータを広く活用する。
提案手法は、6つの画像レベル下流タスクのうち5つにおいて、標準コントラスト法と網膜画像基盤モデルの両方に優れる。
論文 参考訳(メタデータ) (2022-08-04T08:53:15Z) - Contrastive Semi-Supervised Learning for 2D Medical Image Segmentation [16.517086214275654]
フルイメージではなく,画像パッチにContrastive Learning(CL)を適用した,新しい半教師付き2次元医療セグメンテーションソリューションを提案する。
これらのパッチは、擬似ラベリングによって得られた異なるクラスの意味情報を用いて有意義に構築される。
また,コントラスト学習と相乗効果を持つ新しい整合正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-12T15:43:24Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Unlabeled Data Guided Semi-supervised Histopathology Image Segmentation [34.45302976822067]
生成法に基づく半教師付き学習(SSL)は,多様な画像特性の活用に有効であることが証明されている。
非ラベルデータ分布を利用した病理組織像分割のための新しいデータガイド生成法を提案する。
本手法は腺および核データセット上で評価される。
論文 参考訳(メタデータ) (2020-12-17T02:54:19Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。