論文の概要: Multimodal 3D Brain Tumor Segmentation with Adversarial Training and Conditional Random Field
- arxiv url: http://arxiv.org/abs/2411.14418v1
- Date: Thu, 21 Nov 2024 18:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:18:11.328971
- Title: Multimodal 3D Brain Tumor Segmentation with Adversarial Training and Conditional Random Field
- Title(参考訳): 逆行訓練と条件付ランダムフィールドを併用したマルチモーダル3次元脳腫瘍切除
- Authors: Lan Jiang, Yuchao Zheng, Miao Yu, Haiqing Zhang, Fatemah Aladwani, Alessandro Perelli,
- Abstract要約: 正確なセグメンテーションのためのマルチモーダル3次元ボリューム生成適応ネットワーク(3D-vGAN)を提案する。
このモデルは、Pseudo-3DをV-netの改良に利用し、生成後の条件付きランダムフィールドを追加し、元のイメージを補助的なガイダンスとして利用する。
BraTS-2018データセットによる結果は、3D-vGANがU-net、Gan、FCN、および3D V-netなどの古典的セグメンテーションモデルより優れており、99.8%以上に達したことを示している。
- 参考スコア(独自算出の注目度): 44.027635932094064
- License:
- Abstract: Accurate brain tumor segmentation remains a challenging task due to structural complexity and great individual differences of gliomas. Leveraging the pre-eminent detail resilience of CRF and spatial feature extraction capacity of V-net, we propose a multimodal 3D Volume Generative Adversarial Network (3D-vGAN) for precise segmentation. The model utilizes Pseudo-3D for V-net improvement, adds conditional random field after generator and use original image as supplemental guidance. Results, using the BraTS-2018 dataset, show that 3D-vGAN outperforms classical segmentation models, including U-net, Gan, FCN and 3D V-net, reaching specificity over 99.8%.
- Abstract(参考訳): 脳腫瘍の正確なセグメンテーションは、構造が複雑で、グリオーマの個人差が大きいため、依然として難しい課題である。
高精度セグメンテーションのためのマルチモーダル3次元ボリューム生成適応ネットワーク(3D-vGAN)を提案する。
このモデルは、Pseudo-3DをV-netの改良に利用し、生成後の条件付きランダムフィールドを追加し、元のイメージを補助的なガイダンスとして利用する。
BraTS-2018データセットによる結果は、3D-vGANがU-net、Gan、FCN、および3D V-netなどの古典的セグメンテーションモデルより優れており、99.8%以上に達したことを示している。
関連論文リスト
- Multi-dimension unified Swin Transformer for 3D Lesion Segmentation in
Multiple Anatomical Locations [1.7413461132662074]
3次元病変分割のためのMDU-ST(multi-dimension unified Swin transformer)と呼ばれる新しいモデルを提案する。
ネットワークの性能はDice similarity coefficient(DSC)とHausdorff distance(HD)で内部の3D病変データセットを用いて評価される。
提案手法は, 放射線学および腫瘍成長モデル研究を支援するために, 自動3次元病変セグメンテーションを行うために用いられる。
論文 参考訳(メタデータ) (2023-09-04T21:24:00Z) - DGCNet: An Efficient 3D-Densenet based on Dynamic Group Convolution for
Hyperspectral Remote Sensing Image Classification [22.025733502296035]
改良された3D-Densenetモデルに基づく軽量モデルを導入し,DGCNetを設計する。
複数のグループは、入力画像の異なる視覚的および意味的な特徴をキャプチャし、畳み込みニューラルネットワーク(CNN)がリッチな特徴を学習できるようにする。
推論速度と精度が向上し、IN、Pavia、KSCデータセット上での優れたパフォーマンスが向上した。
論文 参考訳(メタデータ) (2023-07-13T10:19:48Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Med-DANet: Dynamic Architecture Network for Efficient Medical Volumetric
Segmentation [13.158995287578316]
我々は,Med-DANetという動的アーキテクチャネットワークを提案し,効率的な精度と効率のトレードオフを実現する。
入力された3次元MRIボリュームのスライス毎に,提案手法は決定ネットワークによってスライス固有の決定を学習する。
提案手法は, 従来の3次元MRI脳腫瘍セグメント化法と比較して, 同等あるいは良好な結果が得られる。
論文 参考訳(メタデータ) (2022-06-14T03:25:58Z) - R2U3D: Recurrent Residual 3D U-Net for Lung Segmentation [17.343802171952195]
本稿では,3次元肺分割作業のための新しいモデルであるRecurrent Residual 3D U-Net(R2U3D)を提案する。
特に,提案モデルでは,U-Netに基づくRecurrent Residual Neural Networkに3次元畳み込みを組み込む。
提案するR2U3Dネットワークは、公開データセットLUNA16に基づいてトレーニングされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-05T19:17:14Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - DDU-Nets: Distributed Dense Model for 3D MRI Brain Tumor Segmentation [27.547646527286886]
分散高密度接続(DDC)の3つのパターンが提案され,CNNの機能再利用と伝播が促進される。
DDC(DDU-Nets)を組み込んだCNNベースのモデルでは,3次元MR画像から脳腫瘍をよりよく検出し,セグメンテーションするために,ピクセルからピクセルへの効率よくトレーニングを行う。
提案手法はBraTS 2019データセットで評価され,DDU-Netsの有効性が示された。
論文 参考訳(メタデータ) (2020-03-03T05:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。