論文の概要: Cross-modal Attention for MRI and Ultrasound Volume Registration
- arxiv url: http://arxiv.org/abs/2107.04548v2
- Date: Mon, 12 Jul 2021 01:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 11:41:24.676957
- Title: Cross-modal Attention for MRI and Ultrasound Volume Registration
- Title(参考訳): MRIと超音波ボリューム登録のためのクロスモーダルアテンション
- Authors: Xinrui Song, Hengtao Guo, Xuanang Xu, Hanqing Chao, Sheng Xu, Baris
Turkbey, Bradford J. Wood, Ge Wang, Pingkun Yan
- Abstract要約: 我々は,クロスモーダル画像登録のための自己認識機構を開発した。
提案するクロスモーダルアテンションブロックは,各特徴量と対応する特徴量とを効果的にマッピングする。
実験の結果,クロスモーダルアテンションブロックを組み込んだCNNネットワークが,CNNネットワークの10倍の性能を発揮することがわかった。
- 参考スコア(独自算出の注目度): 10.725645523967904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prostate cancer biopsy benefits from accurate fusion of transrectal
ultrasound (TRUS) and magnetic resonance (MR) images. In the past few years,
convolutional neural networks (CNNs) have been proved powerful in extracting
image features crucial for image registration. However, challenging
applications and recent advances in computer vision suggest that CNNs are quite
limited in its ability to understand spatial correspondence between features, a
task in which the self-attention mechanism excels. This paper aims to develop a
self-attention mechanism specifically for cross-modal image registration. Our
proposed cross-modal attention block effectively maps each of the features in
one volume to all features in the corresponding volume. Our experimental
results demonstrate that a CNN network designed with the cross-modal attention
block embedded outperforms an advanced CNN network 10 times of its size. We
also incorporated visualization techniques to improve the interpretability of
our network. The source code of our work is available at
https://github.com/DIAL-RPI/Attention-Reg .
- Abstract(参考訳): 前立腺癌生検は経直腸超音波(TRUS)とMR画像の正確な融合の恩恵を受ける。
過去数年間、畳み込みニューラルネットワーク(cnns)は、画像登録に不可欠な画像特徴を抽出する上で強力であることが証明されてきた。
しかし、挑戦的な応用やコンピュータビジョンの最近の進歩は、cnnが特徴間の空間的対応を理解する能力にかなり制限があることを示唆している。
本稿では,モーダル画像登録のための自己認識機構を開発することを目的とする。
提案するクロスモーダルアテンションブロックは,各特徴量と対応する特徴量とを効果的にマッピングする。
実験の結果,クロスモーダルアテンションブロックを組み込んだCNNネットワークが,CNNネットワークの10倍の性能を発揮することがわかった。
ネットワークの解釈性を改善するために可視化技術も取り入れた。
私たちの作業のソースコードはhttps://github.com/DIAL-RPI/Attention-Reg で公開されています。
関連論文リスト
- FE-UNet: Frequency Domain Enhanced U-Net with Segment Anything Capability for Versatile Image Segmentation [50.9040167152168]
CNNのコントラスト感度関数を実験的に定量化し,人間の視覚システムと比較した。
本稿ではウェーブレット誘導分光ポーリングモジュール(WSPM)を提案する。
人間の視覚系をさらにエミュレートするために、周波数領域拡張受容野ブロック(FE-RFB)を導入する。
本研究では,SAM2 をバックボーンとし,Hiera-Large を事前学習ブロックとして組み込んだ FE-UNet を開発した。
論文 参考訳(メタデータ) (2025-02-06T07:24:34Z) - Attention Incorporated Network for Sharing Low-rank, Image and K-space Information during MR Image Reconstruction to Achieve Single Breath-hold Cardiac Cine Imaging [9.531827741901662]
我々は,MRI再構成のための新しい深層学習ネットワークに,低ランク,画像,k空間を含む複数の領域からの情報を埋め込むことを提案する。
A-LIKNetは並列ブランチ構造を採用し、k空間と画像領域で独立した学習を可能にする。
論文 参考訳(メタデータ) (2024-07-03T11:54:43Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Convolutional neural network based on sparse graph attention mechanism
for MRI super-resolution [0.34410212782758043]
深層学習技術を用いた医用画像超解像(SR)再構成は、病変解析を強化し、診断効率と精度を向上させるために医師を支援する。
既存のディープラーニングベースのSR手法は、これらのモデルの表現能力を本質的に制限する畳み込みニューラルネットワーク(CNN)に依存している。
画像特徴抽出に複数の畳み込み演算子特徴抽出モジュール(MCO)を用いるAネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T06:14:22Z) - Implicit Neural Networks with Fourier-Feature Inputs for Free-breathing
Cardiac MRI Reconstruction [21.261567937245808]
本研究は、心臓を暗黙のニューラルネットワークで表現し、心臓の表現が測定値と整合するようにネットワークを適合させる再構築手法を提案する。
提案手法は,最先端の未訓練畳み込みニューラルネットワークと同等あるいはわずかに優れた画像品質を実現する。
論文 参考訳(メタデータ) (2023-05-11T14:14:30Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Visual Attention Network [90.0753726786985]
本稿では,自己アテンションにおける自己適応性および長距離相関を実現するために,新しいカーネルアテンション(LKA)モジュールを提案する。
また、LKAに基づく新しいニューラルネットワーク、すなわちVisual Attention Network (VAN)を導入する。
VANは、最先端のビジョントランスフォーマーと畳み込みニューラルネットワークを、広範な実験において大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-02-20T06:35:18Z) - Convolutional Neural Network with Convolutional Block Attention Module
for Finger Vein Recognition [4.035753155957698]
指静脈認識のための畳み込みブロックアテンションモジュール(CBAM)を用いた軽量畳み込みニューラルネットワークを提案する。
実験は2つの公開データベース上で実施され,本手法がマルチモーダル・フィンガー認識において安定かつ高精度で頑健な性能を実現することを示す。
論文 参考訳(メタデータ) (2022-02-14T12:59:23Z) - CNNs and GANs in MRI-based cross-modality medical image estimation [1.5469452301122177]
クロスモダリティ画像推定では、別のモダリティの画像から1つの医療画像モダリティの画像を生成する。
CNNは画像パターンの識別、特徴付け、抽出に有用であることが示されている。
生成敵対ネットワーク(GAN)は、CNNをジェネレータとして使用し、推定画像は追加ネットワークに基づいて真または偽と判別される。
論文 参考訳(メタデータ) (2021-06-04T01:27:57Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。