論文の概要: Hepatic vessel segmentation based on 3Dswin-transformer with inductive
biased multi-head self-attention
- arxiv url: http://arxiv.org/abs/2111.03368v1
- Date: Fri, 5 Nov 2021 10:17:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 20:24:10.073435
- Title: Hepatic vessel segmentation based on 3Dswin-transformer with inductive
biased multi-head self-attention
- Title(参考訳): 誘導バイアス型マルチヘッド自己注意3Dswin-transformerに基づく肝血管分節
- Authors: Mian Wu, Yinling Qian, Xiangyun Liao, Qiong Wang and Pheng-Ann Heng
- Abstract要約: Indu BIased Multi-Head Attention Vessel Net という,堅牢なエンドツーエンドのコンテナセグメンテーションネットワークを提案する。
正確な肝血管のボクセルを見つけるために,パッチワイド埋め込みよりもボクセルワイド埋め込みを導入する。
一方,絶対位置埋め込みから帰納的バイアス付き相対的位置埋め込みを学習する帰納的バイアス付きマルチヘッド自己アテンションを提案する。
- 参考スコア(独自算出の注目度): 46.46365941681487
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Purpose: Segmentation of liver vessels from CT images is indispensable prior
to surgical planning and aroused broad range of interests in the medical image
analysis community. Due to the complex structure and low contrast background,
automatic liver vessel segmentation remains particularly challenging. Most of
the related researches adopt FCN, U-net, and V-net variants as a backbone.
However, these methods mainly focus on capturing multi-scale local features
which may produce misclassified voxels due to the convolutional operator's
limited locality reception field.
Methods: We propose a robust end-to-end vessel segmentation network called
Inductive BIased Multi-Head Attention Vessel Net(IBIMHAV-Net) by expanding swin
transformer to 3D and employing an effective combination of convolution and
self-attention. In practice, we introduce the voxel-wise embedding rather than
patch-wise embedding to locate precise liver vessel voxels, and adopt
multi-scale convolutional operators to gain local spatial information. On the
other hand, we propose the inductive biased multi-head self-attention which
learns inductive biased relative positional embedding from initialized absolute
position embedding. Based on this, we can gain a more reliable query and key
matrix. To validate the generalization of our model, we test on samples which
have different structural complexity.
Results: We conducted experiments on the 3DIRCADb datasets. The average dice
and sensitivity of the four tested cases were 74.8% and 77.5%, which exceed
results of existing deep learning methods and improved graph cuts method.
Conclusion: The proposed model IBIMHAV-Net provides an automatic, accurate 3D
liver vessel segmentation with an interleaved architecture that better utilizes
both global and local spatial features in CT volumes. It can be further
extended for other clinical data.
- Abstract(参考訳): 目的: 手術計画に先立って, CT画像からの肝血管の分画が不可欠であり, 画像分析コミュニティにおいて幅広い関心を集めている。
複雑な構造と低コントラストの背景から、肝血管の自動分割は特に困難である。
関連する研究の多くは、FCN、U-net、V-netをバックボーンとして採用している。
しかし,これらの手法は主に,畳み込み演算子の局所性受信フィールドの制限により,誤分類されたボクセルを生成する可能性のある,大規模局所特徴の捕捉に重点を置いている。
方法:スウィントランスを3dに拡張し,畳み込みと自己付着の効果的な組み合わせを用いて,インダクティブバイアスドマルチヘッドアテンション容器ネット(ibimhav-net)と呼ばれる頑健なエンドツーエンド容器セグメンテーションネットワークを提案する。
実際には,肝血管の正確なボクセルを同定するためにパッチワイズ埋め込みではなくボクセルワイズ埋め込みを導入し,局所的な空間情報を得るためにマルチスケール畳み込み演算子を採用する。
一方,初期化絶対位置埋め込みから誘導バイアスによる相対的位置埋め込みを学習する誘導バイアス付きマルチヘッド自己アテンションを提案する。
これに基づいて、より信頼性の高いクエリとキーマトリックスを得ることができます。
モデルの一般化を検証するため,構造的複雑さの異なるサンプルを検証した。
結果: 3DIRCADbデータセットを用いて実験を行った。
4例の平均diceと感度は74.8%と77.5%であり、既存のディープラーニング法と改良グラフカット法の結果を上回った。
結論: 提案したモデルIBIMHAV-Netは,CTボリュームのグローバルな空間的特徴と局所的特徴をよりよく活用するインターリーブアーキテクチャを備えた,自動的かつ正確な3次元肝血管分割を提供する。
他の臨床データにも拡張できる。
関連論文リスト
- Improving 3D Medical Image Segmentation at Boundary Regions using Local Self-attention and Global Volume Mixing [14.0825980706386]
ボリューム・メディカル・イメージ・セグメンテーションは、与えられた3次元ボリューム・メディカル・イメージをボクセルレベルの精度で正確に分類することを目的とする医用画像解析の基本的な問題である。
本研究では,3次元医用画像セグメンテーションにおける局所的およびグローバルな依存関係を明示的に捉えることを目的とした,階層型エンコーダデコーダベースの新しいフレームワークを提案する。
提案フレームワークは,局所的なボリュームベースの自己アテンションを利用して局所的な依存関係を高解像度でエンコードし,低解像度の特徴表現でグローバルな依存関係をキャプチャする新しいボリュームミキサを導入する。
論文 参考訳(メタデータ) (2024-10-20T11:08:38Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - CIS-UNet: Multi-Class Segmentation of the Aorta in Computed Tomography
Angiography via Context-Aware Shifted Window Self-Attention [10.335899694123711]
大動脈セグメンテーションのためのディープラーニングモデルであるContext Infused Swin-UNet(CIS-UNet)を紹介する。
CIS-UNetは、CNNエンコーダ、対称デコーダ、スキップ接続、新しいコンテキスト対応シフトウィンドウ自己認識(CSW-SA)をボトルネックブロックとする階層型エンコーダデコーダ構造を採用している。
CIS-UNetは,従来のSwinUNetRセグメンテーションモデルよりも優れた平均Dice係数0.713を達成し,コンピュータ断層撮影(CT)の訓練を行った。
論文 参考訳(メタデータ) (2024-01-23T19:17:20Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Graph Convolution Based Cross-Network Multi-Scale Feature Fusion for
Deep Vessel Segmentation [36.12106059822428]
既存の方法で再建された容器は、しばしば臨床使用基準を満たすほど正確ではない。
ネットワークは,それぞれ初期セグメンテーションと精巧なセグメンテーションを行う2つのカスケードワークで構成されている。
これら2つのU字型ネットワーク間でクロスネットワークマルチスケール機能融合を行い、高品質な船体セグメンテーションを効果的に支援する。
論文 参考訳(メタデータ) (2023-01-06T05:56:50Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Contextual Information Enhanced Convolutional Neural Networks for
Retinal Vessel Segmentation in Color Fundus Images [0.0]
自動網膜血管セグメンテーションシステムは、臨床診断及び眼科研究を効果的に促進することができる。
ディープラーニングベースの手法が提案され、いくつかのカスタマイズされたモジュールが有名なエンコーダデコーダアーキテクチャU-netに統合されている。
その結果,提案手法は先行技術よりも優れ,感性/リコール,F1スコア,MCCの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-03-25T06:10:47Z) - Multi-Task Neural Networks with Spatial Activation for Retinal Vessel
Segmentation and Artery/Vein Classification [49.64863177155927]
本稿では,網膜血管,動脈,静脈を同時に分割する空間活性化機構を備えたマルチタスクディープニューラルネットワークを提案する。
提案するネットワークは,容器分割における画素ワイド精度95.70%,A/V分類精度94.50%を実現している。
論文 参考訳(メタデータ) (2020-07-18T05:46:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。