論文の概要: Multimodal Multi-Head Convolutional Attention with Various Kernel Sizes
for Medical Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2204.04218v1
- Date: Fri, 8 Apr 2022 07:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 15:58:28.939473
- Title: Multimodal Multi-Head Convolutional Attention with Various Kernel Sizes
for Medical Image Super-Resolution
- Title(参考訳): 各種カーネルサイズを有するマルチモーダルマルチヘッドコンボリューションの医療画像超解像への応用
- Authors: Mariana-Iuliana Georgescu, Radu Tudor Ionescu, Andreea-Iuliana Miron,
Olivian Savencu, Nicolae-Catalin Ristea, Nicolae Verga, Fahad Shahbaz Khan
- Abstract要約: 超解像CTおよびMRIスキャンのための新しいマルチヘッド畳み込みアテンションモジュールを提案する。
我々の注目モジュールは、畳み込み操作を用いて、複数の入力テンソルに対して共同的な空間チャネルアテンションを行う。
それぞれの頭部は空間的注意に対する特定の減少率に応じた受容野の大きさの異なる複数の注意ヘッドを導入している。
- 参考スコア(独自算出の注目度): 56.622832383316215
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Super-resolving medical images can help physicians in providing more accurate
diagnostics. In many situations, computed tomography (CT) or magnetic resonance
imaging (MRI) techniques output several scans (modes) during a single
investigation, which can jointly be used (in a multimodal fashion) to further
boost the quality of super-resolution results. To this end, we propose a novel
multimodal multi-head convolutional attention module to super-resolve CT and
MRI scans. Our attention module uses the convolution operation to perform joint
spatial-channel attention on multiple concatenated input tensors, where the
kernel (receptive field) size controls the reduction rate of the spatial
attention and the number of convolutional filters controls the reduction rate
of the channel attention, respectively. We introduce multiple attention heads,
each head having a distinct receptive field size corresponding to a particular
reduction rate for the spatial attention. We integrate our multimodal
multi-head convolutional attention (MMHCA) into two deep neural architectures
for super-resolution and conduct experiments on three data sets. Our empirical
results show the superiority of our attention module over the state-of-the-art
attention mechanisms used in super-resolution. Moreover, we conduct an ablation
study to assess the impact of the components involved in our attention module,
e.g. the number of inputs or the number of heads.
- Abstract(参考訳): 超解像医療画像は、医師がより正確な診断を行うのに役立つ。
コンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)技術は、単一の調査で複数のスキャン(モデム)を出力するが、これは(マルチモーダルな方法で)共同で使用することで、超解像結果の質をさらに高めることができる。
そこで本研究では,超解像CTおよびMRIスキャンのためのマルチモーダルマルチヘッドコンボリューションアテンションモジュールを提案する。
コンボリューションモジュールは、コンボリューション演算を用いて複数の連結入力テンソルに対して共同で空間チャネル注意を行う。カーネル(受信フィールド)サイズが空間注意の低減率を制御し、畳み込みフィルタの個数がチャネル注意の低減率をそれぞれ制御する。
本稿では,空間的注意の特定の低減率に対応する異なる受容場サイズを有する複数の注意ヘッドを紹介する。
我々は,マルチモーダルマルチヘッド畳み込み注意(mmhca)を2つのディープニューラルネットワークに統合し,超解像実験を行った。
実験の結果,超解像における注目機構よりも注目モジュールの方が優れていることが示された。
さらに,注目モジュールの入力数や頭部数など,注目モジュールに関わるコンポーネントの影響を評価するためのアブレーション調査を実施している。
関連論文リスト
- Modality-agnostic Domain Generalizable Medical Image Segmentation by Multi-Frequency in Multi-Scale Attention [1.1155836879100416]
医用画像セグメンテーションのためのModality-Agnostic Domain Generalizable Network (MADGNet)を提案する。
MFMSAブロックは空間的特徴抽出の過程を洗練させる。
E-SDMは、深い監督を伴うマルチタスク学習における情報損失を軽減する。
論文 参考訳(メタデータ) (2024-05-10T07:34:36Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - Two-stage MR Image Segmentation Method for Brain Tumors based on
Attention Mechanism [27.08977505280394]
CycleGAN(CycleGAN)に基づく協調・空間的注意生成対向ネットワーク(CASP-GAN)を提案する。
ジェネレータの性能は、コーディネート・アテンション(CA)モジュールと空間アテンション(SA)モジュールを導入することで最適化される。
元の医用画像の構造情報と詳細な情報を抽出する能力は、所望の画像をより高品質に生成するのに役立つ。
論文 参考訳(メタデータ) (2023-04-17T08:34:41Z) - SuperMask: Generating High-resolution object masks from multi-view,
unaligned low-resolution MRIs [0.8074019565026543]
高分解能等方性MRIはまれであり、典型的なMRIは異方性であり、外面次元ははるかに低解像度である。
複数の低解像度画像から高解像度マスクを生成するための弱教師付きディープラーニングベースのソリューションを提案する。
論文 参考訳(メタデータ) (2023-03-13T23:09:51Z) - Large-Kernel Attention for 3D Medical Image Segmentation [14.76728117630242]
本稿では,多臓器分割と腫瘍分割を正確に行うために,新しいLKアテンションモジュールを提案する。
畳み込みと自己注意の利点は、局所的な文脈情報、長距離依存、チャネル適応を含むLKアテンションモジュールで組み合わせられる。
モジュールはまた、計算コストを最適化するためにLK畳み込みを分解し、U-NetのようなFCNに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-07-19T16:32:55Z) - Superresolution and Segmentation of OCT scans using Multi-Stage
adversarial Guided Attention Training [18.056525121226862]
我々は,OCTスキャンを高分解能セグメンテーションラベルに変換する多段階・多識別型生成逆数ネットワーク(MultiSDGAN)を提案する。
我々は,MultiSDGANアーキテクチャに対して,チャネルと空間的注意の様々な組み合わせを評価し,比較し,より強力な特徴マップを抽出する。
その結果,Dice係数とSSIMでは21.44%,19.45%の相対的な改善が見られた。
論文 参考訳(メタデータ) (2022-06-10T00:26:55Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Rethinking the Extraction and Interaction of Multi-Scale Features for
Vessel Segmentation [53.187152856583396]
網膜血管と主要動脈を2次元基底画像と3次元CTアンギオグラフィー(CTA)スキャンで分割する,PC-Netと呼ばれる新しいディープラーニングモデルを提案する。
PC-Netでは、ピラミッド圧縮励起(PSE)モジュールが各畳み込みブロックに空間情報を導入し、より効果的なマルチスケール特徴を抽出する能力を高めている。
論文 参考訳(メタデータ) (2020-10-09T08:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。