論文の概要: Cross-Modal Self-Attention Distillation for Prostate Cancer Segmentation
- arxiv url: http://arxiv.org/abs/2011.03908v1
- Date: Sun, 8 Nov 2020 06:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 08:18:50.962719
- Title: Cross-Modal Self-Attention Distillation for Prostate Cancer Segmentation
- Title(参考訳): 前立腺癌分画に対するcross-modal self-attention distillation
- Authors: Guokai Zhang, Xiaoang Shen, Ye Luo, Jihao Luo, Zeju Wang, Weigang
Wang, Binghui Zhao, Jianwei Lu
- Abstract要約: マルチモーダル画像の特徴をより効率的に利用する方法は、医療画像セグメンテーションの分野ではまだ難しい問題である。
我々は, 中間層の符号化情報を異なるモードから完全に活用して, クロスモーダルな自己注意蒸留網を構築する。
生検にて358MRIで5倍のクロスバリデーションを施行した。
- 参考スコア(独自算出の注目度): 1.630747108038841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic segmentation of the prostate cancer from the multi-modal magnetic
resonance images is of critical importance for the initial staging and
prognosis of patients. However, how to use the multi-modal image features more
efficiently is still a challenging problem in the field of medical image
segmentation. In this paper, we develop a cross-modal self-attention
distillation network by fully exploiting the encoded information of the
intermediate layers from different modalities, and the extracted attention maps
of different modalities enable the model to transfer the significant spatial
information with more details. Moreover, a novel spatial correlated feature
fusion module is further employed for learning more complementary correlation
and non-linear information of different modality images. We evaluate our model
in five-fold cross-validation on 358 MRI with biopsy confirmed. Extensive
experiment results demonstrate that our proposed network achieves
state-of-the-art performance.
- Abstract(参考訳): 多モード磁気共鳴画像からの前立腺癌の自動分離は、患者の初期ステージングと予後にとって重要である。
しかし、マルチモーダル画像の特徴をより効率的に利用する方法は、医療画像セグメンテーションの分野ではまだ難しい問題である。
本稿では,中間層の符号化情報を異なるモダリティから完全に活用することで,クロスモーダルな自己注意蒸留網を構築し,異なるモダリティの抽出された注目マップにより,モデルが重要な空間情報をより詳細に伝達することを可能にする。
さらに、異なるモダリティ画像のより相補的な相関情報と非線形情報を学ぶために、新しい空間相関型特徴融合モジュールも用いられる。
生検にて358MRIで5倍のクロスバリデーションを施行した。
実験結果から,提案するネットワークが最先端の性能を達成することを示す。
関連論文リスト
- FORESEE: Multimodal and Multi-view Representation Learning for Robust Prediction of Cancer Survival [3.4686401890974197]
マルチモーダル情報のマイニングにより患者生存を確実に予測する新しいエンドツーエンドフレームワークFOESEEを提案する。
クロスフュージョントランスフォーマーは、細胞レベル、組織レベル、腫瘍の不均一度レベルの特徴を効果的に利用し、予後を相関させる。
ハイブリットアテンションエンコーダ(HAE)は、コンテキストアテンションモジュールを用いて、コンテキスト関係の特徴を取得する。
また、モダリティ内の損失情報を再構成する非対称マスク型3重マスク型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2024-05-13T12:39:08Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Uncertainty-Aware Multi-Parametric Magnetic Resonance Image Information
Fusion for 3D Object Segmentation [12.361668672097753]
拡張された3次元画像セグメンテーションのための情報を完全に活用するために,不確実性を考慮したマルチパラメトリックMR画像特徴融合法を提案する。
提案手法は,既存モデルと比較してセグメンテーション性能が向上する。
論文 参考訳(メタデータ) (2022-11-16T09:16:52Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - RCA-IUnet: A residual cross-spatial attention guided inception U-Net
model for tumor segmentation in breast ultrasound imaging [0.6091702876917281]
本稿では,腫瘍セグメンテーションのトレーニングパラメータが最小限に抑えられたRCA-IUnetモデルについて紹介する。
RCA-IUnetモデルは、U-Netトポロジに従い、奥行きの深い分離可能な畳み込みとハイブリッドプール層を持つ。
無関係な特徴を抑え、対象構造に焦点を合わせるために、空間横断型アテンションフィルタが加えられる。
論文 参考訳(メタデータ) (2021-08-05T10:35:06Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。