論文の概要: View-Disentangled Transformer for Brain Lesion Detection
- arxiv url: http://arxiv.org/abs/2209.09657v1
- Date: Tue, 20 Sep 2022 11:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:46:45.538083
- Title: View-Disentangled Transformer for Brain Lesion Detection
- Title(参考訳): 脳病変検出のためのビューディスタングル変換器
- Authors: Haofeng Li, Junjia Huang, Guanbin Li, Zhou Liu, Yihong Zhong, Yingying
Chen, Yunfei Wang, Xiang Wan
- Abstract要約: より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
- 参考スコア(独自算出の注目度): 50.4918615815066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have been widely adopted in brain lesion
detection and segmentation. However, locating small lesions in 2D MRI slices is
challenging, and requires to balance between the granularity of 3D context
aggregation and the computational complexity. In this paper, we propose a novel
view-disentangled transformer to enhance the extraction of MRI features for
more accurate tumour detection. First, the proposed transformer harvests
long-range correlation among different positions in a 3D brain scan. Second,
the transformer models a stack of slice features as multiple 2D views and
enhance these features view-by-view, which approximately achieves the 3D
correlation computing in an efficient way. Third, we deploy the proposed
transformer module in a transformer backbone, which can effectively detect the
2D regions surrounding brain lesions. The experimental results show that our
proposed view-disentangled transformer performs well for brain lesion detection
on a challenging brain MRI dataset.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は脳病変の検出とセグメンテーションに広く採用されている。
しかし, 2次元MRIスライスにおける小さな病変の発見は困難であり, 3次元コンテキストアグリゲーションの粒度と計算複雑性のバランスをとる必要がある。
本稿では,より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディスタングル変換器を提案する。
まず,提案するトランスフォーマは3次元脳スキャンにおいて,異なる位置間の長距離相関を推定する。
第二に、変換器は複数の2次元ビューとしてスライス特徴のスタックをモデル化し、これら特徴のビュー・バイ・ビューを強化し、ほぼ効率的に3次元相関計算を実現する。
第3に,提案するトランスフォーマーモジュールをトランスフォーマーバックボーンに配置し,脳病変周辺の2次元領域を効果的に検出する。
実験の結果,提案手法は難易度の高い脳mriデータにおいて脳病変検出に有効であることがわかった。
関連論文リスト
- Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - SMPLer: Taming Transformers for Monocular 3D Human Shape and Pose Estimation [74.07836010698801]
この問題に対処するために,SMPLベースのトランスフォーマーフレームワーク(SMPLer)を提案する。
SMPLerは、切り離された注意操作とSMPLベースのターゲット表現の2つの重要な要素を組み込んでいる。
SMPLerの既存の3次元人体形状に対する効果とポーズ推定方法の実証実験を行った。
論文 参考訳(メタデータ) (2024-04-23T17:59:59Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Multi-dimension unified Swin Transformer for 3D Lesion Segmentation in
Multiple Anatomical Locations [1.7413461132662074]
3次元病変分割のためのMDU-ST(multi-dimension unified Swin transformer)と呼ばれる新しいモデルを提案する。
ネットワークの性能はDice similarity coefficient(DSC)とHausdorff distance(HD)で内部の3D病変データセットを用いて評価される。
提案手法は, 放射線学および腫瘍成長モデル研究を支援するために, 自動3次元病変セグメンテーションを行うために用いられる。
論文 参考訳(メタデータ) (2023-09-04T21:24:00Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - 3D Brainformer: 3D Fusion Transformer for Brain Tumor Segmentation [6.127298607534532]
深層学習は、最近脳腫瘍のセグメンテーションを改善するために現れた。
変換器は畳み込みネットワークの限界に対処するために利用されてきた。
本稿では,3次元トランスフォーマーを用いたセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2023-04-28T02:11:29Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Convolutional 3D to 2D Patch Conversion for Pixel-wise Glioma
Segmentation in MRI Scans [22.60715394470069]
畳み込み3Dから2次元MRパッチ変換モデルにより,新しい画素ワイドセグメンテーションフレームワークを考案する。
本アーキテクチャでは, 局所スライス特性とグローバルスライス特性を併用して, 中央ボクセルのクラスラベルを推定する。
論文 参考訳(メタデータ) (2020-10-20T20:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。