論文の概要: BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2402.08793v1
- Date: Tue, 13 Feb 2024 21:03:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 17:46:12.632946
- Title: BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation
- Title(参考訳): BEFUnet: 精密医用画像分割のためのハイブリッドCNN変換器アーキテクチャ
- Authors: Omid Nejati Manzari, Javad Mirzapour Kaleybar, Hooman Saadat, Shahin
Maleki
- Abstract要約: 本稿では,医療画像の正確な分割のために,身体情報とエッジ情報の融合を強化するBEFUnetという,革新的なU字型ネットワークを提案する。
BEFUnetは、新しいローカル・クロス・アテンション・フィーチャー(LCAF)融合モジュール、新しいダブル・レベル・フュージョン(DLF)モジュール、デュアルブランチ・エンコーダの3つの主要モジュールから構成されている。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accurate segmentation of medical images is critical for various
healthcare applications. Convolutional neural networks (CNNs), especially Fully
Convolutional Networks (FCNs) like U-Net, have shown remarkable success in
medical image segmentation tasks. However, they have limitations in capturing
global context and long-range relations, especially for objects with
significant variations in shape, scale, and texture. While transformers have
achieved state-of-the-art results in natural language processing and image
recognition, they face challenges in medical image segmentation due to image
locality and translational invariance issues. To address these challenges, this
paper proposes an innovative U-shaped network called BEFUnet, which enhances
the fusion of body and edge information for precise medical image segmentation.
The BEFUnet comprises three main modules, including a novel Local
Cross-Attention Feature (LCAF) fusion module, a novel Double-Level Fusion (DLF)
module, and dual-branch encoder. The dual-branch encoder consists of an edge
encoder and a body encoder. The edge encoder employs PDC blocks for effective
edge information extraction, while the body encoder uses the Swin Transformer
to capture semantic information with global attention. The LCAF module
efficiently fuses edge and body features by selectively performing local
cross-attention on features that are spatially close between the two
modalities. This local approach significantly reduces computational complexity
compared to global cross-attention while ensuring accurate feature matching.
BEFUnet demonstrates superior performance over existing methods across various
evaluation metrics on medical image segmentation datasets.
- Abstract(参考訳): 医療画像の正確なセグメンテーションは、様々な医療応用に不可欠である。
畳み込みニューラルネットワーク(CNN)、特にU-Netのようなフル畳み込みニューラルネットワーク(FCN)は、医用画像分割タスクにおいて顕著な成功を収めている。
しかしながら、特に形状、スケール、テクスチャが著しく異なる物体に対して、グローバルコンテキストと長距離関係を捉えることに制限がある。
トランスフォーマーは自然言語処理や画像認識において最先端の成果を得ているが、画像の局所性や翻訳の不変性といった問題により、医用画像セグメンテーションの課題に直面している。
そこで本稿では,生体情報とエッジ情報を融合して正確な医用画像分割を行う,革新的なu字型ネットワークbefunetを提案する。
befunetには3つの主要なモジュールがあり、その中には新しいlocal cross-attention feature (lcaf) fusion module、新しいdouble-level fusion (dlf) module、デュアルブランチエンコーダが含まれる。
二重分岐エンコーダは、エッジエンコーダとボディーエンコーダとからなる。
エッジエンコーダは効果的なエッジ情報抽出にPDCブロックを使用し、ボディエンコーダはSwin Transformerを使用してグローバルな注意を払って意味情報をキャプチャする。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
この局所的なアプローチは、グローバルなクロスアテンションに比べて計算の複雑さを著しく低減し、正確な特徴マッチングを保証する。
BEFUnetは、医療画像セグメンテーションデータセットの様々な評価指標に対して、既存の手法よりも優れた性能を示す。
関連論文リスト
- TransResNet: Integrating the Strengths of ViTs and CNNs for High Resolution Medical Image Segmentation via Feature Grafting [6.987177704136503]
医用画像領域で高解像度画像が好ましいのは、基礎となる方法の診断能力を大幅に向上させるためである。
医用画像セグメンテーションのための既存のディープラーニング技術のほとんどは、空間次元が小さい入力画像に最適化されており、高解像度画像では不十分である。
我々はTransResNetという並列処理アーキテクチャを提案し、TransformerとCNNを並列的に組み合わせ、マルチ解像度画像から特徴を独立して抽出する。
論文 参考訳(メタデータ) (2024-10-01T18:22:34Z) - AFFSegNet: Adaptive Feature Fusion Segmentation Network for Microtumors and Multi-Organ Segmentation [32.74195208408193]
医用画像のセグメンテーションは、コンピュータビジョンにおいて重要な課題であり、診断、治療計画、疾患モニタリングにおける臨床医を支援する。
本稿では,局所的特徴とグローバルな特徴を効果的に統合し,正確な医用画像分割を実現するトランスフォーマアーキテクチャである適応意味ネットワーク(ASSNet)を提案する。
多臓器、肝腫瘍、膀胱腫瘍の分節を含む様々な医療画像の分節タスクに関するテストは、ATSNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2024-09-12T06:25:44Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - MCPA: Multi-scale Cross Perceptron Attention Network for 2D Medical
Image Segmentation [7.720152925974362]
MCPA(Multiscale Cross Perceptron Attention Network)と呼ばれる2次元医用画像分割モデルを提案する。
MCPAは、エンコーダ、デコーダ、クロスパーセプトロンの3つの主要コンポーネントで構成されている。
提案したMCPAモデルを,様々なタスクやデバイスから利用可能ないくつかの医用画像データセット上で評価した。
論文 参考訳(メタデータ) (2023-07-27T02:18:12Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。