論文の概要: Cross-modal Attention for MRI and Ultrasound Volume Registration
- arxiv url: http://arxiv.org/abs/2107.04548v2
- Date: Mon, 12 Jul 2021 01:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 11:41:24.676957
- Title: Cross-modal Attention for MRI and Ultrasound Volume Registration
- Title(参考訳): MRIと超音波ボリューム登録のためのクロスモーダルアテンション
- Authors: Xinrui Song, Hengtao Guo, Xuanang Xu, Hanqing Chao, Sheng Xu, Baris
Turkbey, Bradford J. Wood, Ge Wang, Pingkun Yan
- Abstract要約: 我々は,クロスモーダル画像登録のための自己認識機構を開発した。
提案するクロスモーダルアテンションブロックは,各特徴量と対応する特徴量とを効果的にマッピングする。
実験の結果,クロスモーダルアテンションブロックを組み込んだCNNネットワークが,CNNネットワークの10倍の性能を発揮することがわかった。
- 参考スコア(独自算出の注目度): 10.725645523967904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prostate cancer biopsy benefits from accurate fusion of transrectal
ultrasound (TRUS) and magnetic resonance (MR) images. In the past few years,
convolutional neural networks (CNNs) have been proved powerful in extracting
image features crucial for image registration. However, challenging
applications and recent advances in computer vision suggest that CNNs are quite
limited in its ability to understand spatial correspondence between features, a
task in which the self-attention mechanism excels. This paper aims to develop a
self-attention mechanism specifically for cross-modal image registration. Our
proposed cross-modal attention block effectively maps each of the features in
one volume to all features in the corresponding volume. Our experimental
results demonstrate that a CNN network designed with the cross-modal attention
block embedded outperforms an advanced CNN network 10 times of its size. We
also incorporated visualization techniques to improve the interpretability of
our network. The source code of our work is available at
https://github.com/DIAL-RPI/Attention-Reg .
- Abstract(参考訳): 前立腺癌生検は経直腸超音波(TRUS)とMR画像の正確な融合の恩恵を受ける。
過去数年間、畳み込みニューラルネットワーク(cnns)は、画像登録に不可欠な画像特徴を抽出する上で強力であることが証明されてきた。
しかし、挑戦的な応用やコンピュータビジョンの最近の進歩は、cnnが特徴間の空間的対応を理解する能力にかなり制限があることを示唆している。
本稿では,モーダル画像登録のための自己認識機構を開発することを目的とする。
提案するクロスモーダルアテンションブロックは,各特徴量と対応する特徴量とを効果的にマッピングする。
実験の結果,クロスモーダルアテンションブロックを組み込んだCNNネットワークが,CNNネットワークの10倍の性能を発揮することがわかった。
ネットワークの解釈性を改善するために可視化技術も取り入れた。
私たちの作業のソースコードはhttps://github.com/DIAL-RPI/Attention-Reg で公開されています。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Attention Incorporated Network for Sharing Low-rank, Image and K-space Information during MR Image Reconstruction to Achieve Single Breath-hold Cardiac Cine Imaging [9.531827741901662]
我々は,MRI再構成のための新しい深層学習ネットワークに,低ランク,画像,k空間を含む複数の領域からの情報を埋め込むことを提案する。
A-LIKNetは並列ブランチ構造を採用し、k空間と画像領域で独立した学習を可能にする。
論文 参考訳(メタデータ) (2024-07-03T11:54:43Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Spherical CNN for Medical Imaging Applications: Importance of
Equivariance in image reconstruction and denoising [0.0]
同変ネットワークは、トモグラフィー応用のための効率的かつ高性能なアプローチである。
2次元および3次元の医療画像問題に対する同変球状CNNの有効性を評価した。
本稿では,従来の画像再構成ツールの補完としてSCNNを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-06T21:18:47Z) - Convolutional neural network based on sparse graph attention mechanism
for MRI super-resolution [0.34410212782758043]
深層学習技術を用いた医用画像超解像(SR)再構成は、病変解析を強化し、診断効率と精度を向上させるために医師を支援する。
既存のディープラーニングベースのSR手法は、これらのモデルの表現能力を本質的に制限する畳み込みニューラルネットワーク(CNN)に依存している。
画像特徴抽出に複数の畳み込み演算子特徴抽出モジュール(MCO)を用いるAネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T06:14:22Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Visual Attention Network [90.0753726786985]
本稿では,自己アテンションにおける自己適応性および長距離相関を実現するために,新しいカーネルアテンション(LKA)モジュールを提案する。
また、LKAに基づく新しいニューラルネットワーク、すなわちVisual Attention Network (VAN)を導入する。
VANは、最先端のビジョントランスフォーマーと畳み込みニューラルネットワークを、広範な実験において大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-02-20T06:35:18Z) - Convolutional Neural Network with Convolutional Block Attention Module
for Finger Vein Recognition [4.035753155957698]
指静脈認識のための畳み込みブロックアテンションモジュール(CBAM)を用いた軽量畳み込みニューラルネットワークを提案する。
実験は2つの公開データベース上で実施され,本手法がマルチモーダル・フィンガー認識において安定かつ高精度で頑健な性能を実現することを示す。
論文 参考訳(メタデータ) (2022-02-14T12:59:23Z) - CNNs and GANs in MRI-based cross-modality medical image estimation [1.5469452301122177]
クロスモダリティ画像推定では、別のモダリティの画像から1つの医療画像モダリティの画像を生成する。
CNNは画像パターンの識別、特徴付け、抽出に有用であることが示されている。
生成敵対ネットワーク(GAN)は、CNNをジェネレータとして使用し、推定画像は追加ネットワークに基づいて真または偽と判別される。
論文 参考訳(メタデータ) (2021-06-04T01:27:57Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。