論文の概要: SAUNet: Shape Attentive U-Net for Interpretable Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2001.07645v3
- Date: Mon, 16 Mar 2020 17:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 00:29:34.803989
- Title: SAUNet: Shape Attentive U-Net for Interpretable Medical Image
Segmentation
- Title(参考訳): SAUNet:医療画像の解釈のための形状注意U-Net
- Authors: Jesse Sun, Fatemeh Darbehani, Mark Zaidi, and Bo Wang
- Abstract要約: 本稿では,モデル解釈可能性とロバスト性に着目したShape Attentive U-Net(SAUNet)というアーキテクチャを提案する。
本手法は,SUN09とAC17の2つの大きな心内MRI画像セグメント化データセットに対して,最先端の結果を得られる。
- 参考スコア(独自算出の注目度): 2.6837973648527926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation is a difficult but important task for many
clinical operations such as cardiac bi-ventricular volume estimation. More
recently, there has been a shift to utilizing deep learning and fully
convolutional neural networks (CNNs) to perform image segmentation that has
yielded state-of-the-art results in many public benchmark datasets. Despite the
progress of deep learning in medical image segmentation, standard CNNs are
still not fully adopted in clinical settings as they lack robustness and
interpretability. Shapes are generally more meaningful features than solely
textures of images, which are features regular CNNs learn, causing a lack of
robustness. Likewise, previous works surrounding model interpretability have
been focused on post hoc gradient-based saliency methods. However,
gradient-based saliency methods typically require additional computations post
hoc and have been shown to be unreliable for interpretability. Thus, we present
a new architecture called Shape Attentive U-Net (SAUNet) which focuses on model
interpretability and robustness. The proposed architecture attempts to address
these limitations by the use of a secondary shape stream that captures rich
shape-dependent information in parallel with the regular texture stream.
Furthermore, we suggest multi-resolution saliency maps can be learned using our
dual-attention decoder module which allows for multi-level interpretability and
mitigates the need for additional computations post hoc. Our method also
achieves state-of-the-art results on the two large public cardiac MRI image
segmentation datasets of SUN09 and AC17.
- Abstract(参考訳): 心室容積推定などの多くの臨床手術において, 医用画像のセグメンテーションは難しいが重要な課題である。
最近では、ディープラーニングと完全な畳み込みニューラルネットワーク(CNN)を活用して、多くの公開ベンチマークデータセットで最先端の結果をもたらすイメージセグメンテーションを実行するようにシフトしている。
医用画像のセグメンテーションにおける深層学習の進歩にもかかわらず、標準的なCNNは、堅牢性と解釈性に欠けるため、臨床環境ではまだ完全には採用されていない。
形状はイメージのテクスチャのみよりも意味のある特徴であり、通常のcnnが学習する特徴であり、堅牢性が欠如している。
同様に、モデル解釈可能性を取り巻く以前の研究は、ポストホック勾配に基づく正解法に焦点を当ててきた。
しかし、勾配に基づくサリエンシ法は通常、ホック後のさらなる計算を必要としており、解釈不可能であることが示されている。
そこで本稿では,モデル解釈性とロバスト性に着目したsaunet(shape attentive u-net)という新しいアーキテクチャを提案する。
提案アーキテクチャは, 通常のテクスチャストリームと並行して, リッチな形状依存情報をキャプチャする二次形状ストリームを用いて, これらの制約に対処する。
さらに,マルチレベルな解釈を可能にし,hoc後の計算を緩和するデュアルアテンションデコーダモジュールを用いて,マルチレゾリューションサリエンシーマップを学習できることを示す。
また,SUN09とAC17の2つの大容量心筋MRI画像セグメント化データセットについて,最先端の結果を得た。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Evaluation of importance estimators in deep learning classifiers for
Computed Tomography [1.6710577107094642]
ディープニューラルネットワークの解釈可能性はしばしば入力特徴の重要性を推定することに依存する。
SmoothGradは2つのバージョンが忠実度とROCランキングを上回り、Integrated GradientsとSmoothGradはDSC評価に優れていた。
モデル中心 (忠実度) と人間中心 (ROC, DSC) 評価の間には重要な相違があった。
論文 参考訳(メタデータ) (2022-09-30T11:57:25Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - DCSAU-Net: A Deeper and More Compact Split-Attention U-Net for Medical
Image Segmentation [1.1315617886931961]
マルチスケールの分割アテンションと深みの深い畳み込みを用いて有用な特徴を抽出する新しい分割アテンション型u-shapeネットワーク(DCSAU-Net)を提案する。
その結果、DCSAU-Netは、平均的なUnion(mIoU)とF1-socre(F1-socre)の観点から、他の最先端(SOTA)手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T11:36:15Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Learning Fuzzy Clustering for SPECT/CT Segmentation via Convolutional
Neural Networks [5.3123694982708365]
QBSPECT(Quantitative bone single-photon emission Computed Tomography)は、平面骨シンチグラフィよりも骨転移をより定量的に評価する可能性を秘めています。
解剖学的領域-関心(ROI)のセグメント化は、まだ専門家による手動の記述に大きく依存しています。
本研究では,QBSPECT画像を病変,骨,背景に分割するための高速かつ堅牢な自動分割法を提案する。
論文 参考訳(メタデータ) (2021-04-17T19:03:52Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z) - A Spatially Constrained Deep Convolutional Neural Network for Nerve
Fiber Segmentation in Corneal Confocal Microscopic Images using Inaccurate
Annotations [10.761046991755311]
本研究では,スムーズかつロバストな画像分割を実現するために,空間拘束型深部畳み込みニューラルネットワーク(DCNN)を提案する。
提案手法は神経線維分節に対する角膜共焦点顕微鏡(CCM)画像に基づいて評価された。
論文 参考訳(メタデータ) (2020-04-20T16:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。