論文の概要: RADIOGAN: Deep Convolutional Conditional Generative adversarial Network
To Generate PET Images
- arxiv url: http://arxiv.org/abs/2003.08663v1
- Date: Thu, 19 Mar 2020 10:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:07:15.710578
- Title: RADIOGAN: Deep Convolutional Conditional Generative adversarial Network
To Generate PET Images
- Title(参考訳): RADIOGAN:PET画像を生成するための深層畳み込み条件生成対向ネットワーク
- Authors: Amine Amyar, Su Ruan, Pierre Vera, Pierre Decazes, and Romain
Modzelewski
- Abstract要約: MIPポジトロン放射トモグラフィー画像(PET)を生成するための深層畳み込み条件生成対向ネットワークを提案する。
提案手法の利点は,1種類の病変に対して,小さな標本サイズで訓練した病変の異なるクラスを生成できるモデルから成り立っている。
また,画像評価ツールとして,潜伏空間を歩行できることを示す。
- 参考スコア(独自算出の注目度): 3.947298454012977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most challenges in medical imaging is the lack of data. It is
proven that classical data augmentation methods are useful but still limited
due to the huge variation in images. Using generative adversarial networks
(GAN) is a promising way to address this problem, however, it is challenging to
train one model to generate different classes of lesions. In this paper, we
propose a deep convolutional conditional generative adversarial network to
generate MIP positron emission tomography image (PET) which is a 2D image that
represents a 3D volume for fast interpretation, according to different lesions
or non lesion (normal). The advantage of our proposed method consists of one
model that is capable of generating different classes of lesions trained on a
small sample size for each class of lesion, and showing a very promising
results. In addition, we show that a walk through a latent space can be used as
a tool to evaluate the images generated.
- Abstract(参考訳): 医療画像の最大の課題の1つは、データの欠如である。
古典的なデータ拡張手法は有用であるが,画像の巨大変動により制限されていることが証明された。
generative adversarial networks(gan)を使用することは、この問題に対処する上で有望な方法だが、ひとつのモデルを訓練して異なる種類の病変を生成することは困難である。
本稿では, 異なる病変や非病変(通常)に応じて, 高速解釈のための3次元ボリュームを表す2次元画像であるmipポジトロンエミッショントモグラフィ画像(pet)を生成するための, 深い畳み込み条件付き生成逆ネットワークを提案する。
提案手法の利点は,各病変の小さな標本サイズで訓練された病変の異なるクラスを生成できる1つのモデルから成り,非常に有望な結果を示すことにある。
また, 潜在空間の歩行を, 生成画像の評価ツールとして利用できることを示す。
関連論文リスト
- Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - CleftGAN: Adapting A Style-Based Generative Adversarial Network To
Create Images Depicting Cleft Lip Deformity [2.1647227058902336]
深層学習に基づく口唇生成装置を構築し, 口唇のファクシミリを高精細度に表現した, ほぼ無限の人工画像を生成する。
我々は、StyleGAN-ADAの異なるバージョンをテストするトランスファー学習プロトコルを実行した。
様々な裂裂の変形を描写した訓練画像は、回転、スケーリング、色調整、背景のぼやけを調整するために前処理された。
論文 参考訳(メタデータ) (2023-10-12T01:25:21Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Generative Adversarial Networks for Brain Images Synthesis: A Review [2.609784101826762]
医用画像において、画像合成とは、ある画像(シーケンス、モダリティ)を別の画像(シーケンス、モダリティ)から推定する過程である。
GAN(Generative Adversarial Network)は、GAN(Generative-based Deep Learning)の一種。
我々は,CTからPETへの画像合成,CTからMRIへの画像合成,PETへの画像合成,およびその逆を含む最近のGANの展開を要約した。
論文 参考訳(メタデータ) (2023-05-16T17:28:06Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Translational Lung Imaging Analysis Through Disentangled Representations [0.0]
本稿では,異なる動物モデルの画像から絡み合った情報を抽出できるモデルと,その画像を生成するメカニズムについて述べる。
結核に感染した病理肺の画像から最適化され、(a)入力スライスからその位置を推定し、その属する動物モデル、そしてさらには、肺全体を覆うマスクを生成することができる。
論文 参考訳(メタデータ) (2022-03-03T11:56:20Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Weakly Supervised PET Tumor Detection Using Class Response [3.947298454012977]
ポジトロン・エミッション・トモグラフィー (PET) 画像において, 画像レベルでのクラスラベルのみを用いて, 病変の種類を同定する新しい手法を提案する。
提案手法の利点は,PET画像の2次元像のみを用いて3次元画像中の腫瘍の体積全体を検出することであり,非常に有望な結果を示すことである。
論文 参考訳(メタデータ) (2020-03-18T17:06:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。