論文の概要: Free-form tumor synthesis in computed tomography images via richer
generative adversarial network
- arxiv url: http://arxiv.org/abs/2104.09701v1
- Date: Tue, 20 Apr 2021 00:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:30:22.966236
- Title: Free-form tumor synthesis in computed tomography images via richer
generative adversarial network
- Title(参考訳): リッチ・ジェネレーティブ・アドバーサリー・ネットワークを用いたct画像における遊離型腫瘍合成
- Authors: Qiangguo Jin and Hui Cui and Changming Sun and Zhaopeng Meng and Ran
Su
- Abstract要約: 本稿では,CT画像における3次元腫瘍/レセオン合成のための,よりリッチな生成対向ネットワークを提案する。
このネットワークは、新しいリッチな畳み込み特徴強化拡張拡張型ジェネレータ(richerdg)とハイブリッド損失関数で構成されている。
- 参考スコア(独自算出の注目度): 25.20811195237978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The insufficiency of annotated medical imaging scans for cancer makes it
challenging to train and validate data-hungry deep learning models in precision
oncology. We propose a new richer generative adversarial network for free-form
3D tumor/lesion synthesis in computed tomography (CT) images. The network is
composed of a new richer convolutional feature enhanced dilated-gated generator
(RicherDG) and a hybrid loss function. The RicherDG has dilated-gated
convolution layers to enable tumor-painting and to enlarge perceptive fields;
and it has a novel richer convolutional feature association branch to recover
multi-scale convolutional features especially from uncertain boundaries between
tumor and surrounding healthy tissues. The hybrid loss function, which consists
of a diverse range of losses, is designed to aggregate complementary
information to improve optimization.
We perform a comprehensive evaluation of the synthesis results on a wide
range of public CT image datasets covering the liver, kidney tumors, and lung
nodules. The qualitative and quantitative evaluations and ablation study
demonstrated improved synthesizing results over advanced tumor synthesis
methods.
- Abstract(参考訳): 癌に対するアノテート・メディカル・イメージング・スキャンの欠如は、精密腫瘍学におけるデータ・ハングリー深層学習モデルの訓練と検証を困難にしている。
本稿では,CT画像における3次元腫瘍/レセオン合成のための,よりリッチな生成対向ネットワークを提案する。
このネットワークは、新しいリッチな畳み込み特徴強化拡張拡張型ジェネレータ(richerdg)とハイブリッド損失関数で構成されている。
RicherDGは、腫瘍塗布を可能とし、知覚野を拡大するための拡張された畳み込み層を持ち、特に腫瘍と周囲の健全な組織の間の不確実な境界から多スケールの畳み込みの特徴を回復する、よりリッチな畳み込み特徴結合部を有する。
多様な損失範囲からなるハイブリッド損失関数は、最適化を改善するために補完情報を集約するように設計されている。
肝, 腎腫瘍, 肺結節を対象とする広範囲のCT画像データセットを用いて, 合成結果の総合的評価を行った。
質的・定量的評価およびアブレーション試験により, 進行腫瘍合成法における合成精度が向上した。
関連論文リスト
- Enhancing Brain Tumor Classification Using TrAdaBoost and Multi-Classifier Deep Learning Approaches [0.0]
脳腫瘍は、急速な成長と転移の可能性のために深刻な健康上の脅威となる。
本研究の目的は,脳腫瘍分類の効率と精度を向上させることである。
我々のアプローチは、ViT(Vision Transformer)、Capsule Neural Network(CapsNet)、ResNet-152やVGG16といった畳み込みニューラルネットワーク(CNN)など、最先端のディープラーニングアルゴリズムを組み合わせる。
論文 参考訳(メタデータ) (2024-10-31T07:28:06Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - 3DGAUnet: 3D generative adversarial networks with a 3D U-Net based
generator to achieve the accurate and effective synthesis of clinical tumor
image data for pancreatic cancer [6.821916296001028]
PDAC腫瘍と膵組織の3DCT画像を生成する3DGAUnetという3DGAUnetモデルを開発した。
我々の革新は、PDAC腫瘍や膵組織の形状とテクスチャ学習を改善するために、ジェネレータのための3次元U-Netアーキテクチャを開発することである。
論文 参考訳(メタデータ) (2023-11-09T19:10:28Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Generative Adversarial Networks for Brain Images Synthesis: A Review [2.609784101826762]
医用画像において、画像合成とは、ある画像(シーケンス、モダリティ)を別の画像(シーケンス、モダリティ)から推定する過程である。
GAN(Generative Adversarial Network)は、GAN(Generative-based Deep Learning)の一種。
我々は,CTからPETへの画像合成,CTからMRIへの画像合成,PETへの画像合成,およびその逆を含む最近のGANの展開を要約した。
論文 参考訳(メタデータ) (2023-05-16T17:28:06Z) - Image Synthesis with Disentangled Attributes for Chest X-Ray Nodule
Augmentation and Detection [52.93342510469636]
肺癌早期検診では胸部X線像の肺結節検出が一般的である。
ディープラーニングに基づくコンピュータ支援診断(CAD)システムは、CXRの結節スクリーニングのために放射線科医をサポートすることができる。
このようなデータセットの可用性を損なうため,データ拡張のために肺結節合成法を提案する。
論文 参考訳(メタデータ) (2022-07-19T16:38:48Z) - Multi-modal learning for predicting the genotype of glioma [14.93152817415408]
Isocitrate dehydrogenase (IDH)遺伝子変異はグリオーマの診断と予後に必須なバイオマーカーである。
焦点腫瘍像と幾何学的特徴をMRIから派生した脳ネットワーク特徴と統合することにより、グリオーマ遺伝子型をより正確に予測できることが期待されている。
本稿では,3つのエンコーダを用いたマルチモーダル学習フレームワークを提案し,局所腫瘍像,腫瘍幾何学,大域脳ネットワークの特徴を抽出する。
論文 参考訳(メタデータ) (2022-03-21T10:20:04Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - Diffusion-Weighted Magnetic Resonance Brain Images Generation with
Generative Adversarial Networks and Variational Autoencoders: A Comparison
Study [55.78588835407174]
本研究では,高画質,多彩で現実的な拡散重み付き磁気共鳴画像が深部生成モデルを用いて合成可能であることを示す。
Introspective Variational AutoencoderとStyle-Based GANの2つのネットワークを医療分野におけるデータ拡張の資格として提示する。
論文 参考訳(メタデータ) (2020-06-24T18:00:01Z) - A Novel and Efficient Tumor Detection Framework for Pancreatic Cancer
via CT Images [21.627818410241552]
本稿では,新しい膵腫瘍検出フレームワークを提案する。
提案手法のコントリビューションは,Augmented Feature Pyramid Network,Self-Adaptive Feature Fusion,Dependencies Computation Moduleの3つのコンポーネントから構成される。
実験により,AUCの0.9455による検出において,他の最先端手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2020-02-11T15:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。