論文の概要: MammoGANesis: Controlled Generation of High-Resolution Mammograms for
Radiology Education
- arxiv url: http://arxiv.org/abs/2010.05177v1
- Date: Sun, 11 Oct 2020 06:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 13:14:26.642195
- Title: MammoGANesis: Controlled Generation of High-Resolution Mammograms for
Radiology Education
- Title(参考訳): MammoGANesis:放射線教育のための高分解能マンモグラムの生成制御
- Authors: Cyril Zakka, Ghida Saheb, Elie Najem, Ghina Berjawi
- Abstract要約: 我々は,512×512高分解能マンモグラムを合成するために,GAN(Generative Adversarial Network)を訓練する。
結果として得られるモデルは、教師なしの高レベルの特徴の分離につながる。
両盲検で平均AUC0.54を達成し,医療関連マンモグラムの生成能力を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During their formative years, radiology trainees are required to interpret
hundreds of mammograms per month, with the objective of becoming apt at
discerning the subtle patterns differentiating benign from malignant lesions.
Unfortunately, medico-legal and technical hurdles make it difficult to access
and query medical images for training.
In this paper we train a generative adversarial network (GAN) to synthesize
512 x 512 high-resolution mammograms. The resulting model leads to the
unsupervised separation of high-level features (e.g. the standard mammography
views and the nature of the breast lesions), with stochastic variation in the
generated images (e.g. breast adipose tissue, calcification), enabling
user-controlled global and local attribute-editing of the synthesized images.
We demonstrate the model's ability to generate anatomically and medically
relevant mammograms by achieving an average AUC of 0.54 in a double-blind study
on four expert mammography radiologists to distinguish between generated and
real images, ascribing to the high visual quality of the synthesized and edited
mammograms, and to their potential use in advancing and facilitating medical
education.
- Abstract(参考訳): 放射線学の研修生は, 毎月数百個のマンモグラムを解釈することが求められ, 悪性病変と良性障害を区別する微妙なパターンを識別することが目的である。
残念なことに、医療法と技術的なハードルは、トレーニングのために医療画像にアクセスしクエリすることを困難にしている。
本稿では,512×512高分解能マンモグラムを合成するために,GAN(Generative Adversarial Network)を訓練する。
結果として得られたモデルは、高レベルの特徴(例えば、標準マンモグラフィービューや乳腺病変の性質)を教師なしで分離し、生成された画像(例えば、乳腺脂肪組織、石灰化)の確率的変化を伴って、ユーザーが制御するグローバルおよび局所的な属性編集を可能にする。
本研究は, 合成および編集したマンモグラムの高画質化と, 医用教育の進歩と促進に有用であることを示すため, 4人のマンモグラフィ専門医を対象とした二重盲検研究において, 平均AUC0.54を達成し, 解剖学的, 医学的に関係のあるマンモグラムを生成する能力を示す。
関連論文リスト
- Panoptic Segmentation of Mammograms with Text-To-Image Diffusion Model [1.2130800774416757]
視覚言語拡散モデルは、様々な下流タスクに対する画像生成と転送性において顕著な性能を示した。
本稿では,安定拡散モデルから最新のパン光学セグメントアーキテクチャへの入力として,事前学習した特徴を活用することを提案する。
論文 参考訳(メタデータ) (2024-07-19T14:04:05Z) - MAM-E: Mammographic synthetic image generation with diffusion models [0.21360081064127018]
高品質のフルフィールドデジタルマンモグラフィー生成のための拡散モデルの利用について検討する。
テキストプロンプトによって制御される高品質マンモグラフィ合成のための生成モデルのパイプラインであるMAM-Eを紹介する。
論文 参考訳(メタデータ) (2023-11-16T11:49:49Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Can GPT-4V(ision) Serve Medical Applications? Case Studies on GPT-4V for
Multimodal Medical Diagnosis [59.35504779947686]
GPT-4VはOpenAIの最新のマルチモーダル診断モデルである。
評価対象は17の人体システムである。
GPT-4Vは、医用画像のモダリティと解剖学を区別する能力を示す。
疾患の診断と包括的報告作成において重大な課題に直面している。
論文 参考訳(メタデータ) (2023-10-15T18:32:27Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Generation of Artificial CT Images using Patch-based Conditional
Generative Adversarial Networks [0.0]
本稿では,条件付き判別器を用いた生成対向ネットワークを用いた画像生成手法を提案する。
心電図(CT)画像におけるGAN強調医用画像生成の可能性について検討した。
論文 参考訳(メタデータ) (2022-05-19T20:29:25Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Meta-repository of screening mammography classifiers [35.24447276237306]
マンモグラムのスクリーニングのためのディープラーニングモデルを含むメタリポジトリをリリースする。
当社のメタリポジトリには5つの最先端モデルとオープンソース実装が含まれています。
私たちは5つの国際データセットでそれらのパフォーマンスを比較します。
論文 参考訳(メタデータ) (2021-08-10T17:39:26Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。