論文の概要: TC-Net: Triple Context Network for Automated Stroke Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2202.13687v1
- Date: Mon, 28 Feb 2022 11:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:35:01.103753
- Title: TC-Net: Triple Context Network for Automated Stroke Lesion Segmentation
- Title(参考訳): TC-Net: 自動ストローク病変分割のための三重コンテキストネットワーク
- Authors: Xiuquan Du, Kunpeng Ma
- Abstract要約: 本稿では,空間的コンテキスト情報を中心として,新たなネットワークである Triple Context Network (TC-Net) を提案する。
我々のネットワークはオープンデータセットATLASで評価され、最高スコアは0.594、ハウスドルフ距離は27.005mm、平均対称性表面距離は7.137mmである。
- 参考スコア(独自算出の注目度): 0.5482532589225552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate lesion segmentation plays a key role in the clinical mapping of
stroke. Convolutional neural network (CNN) approaches based on U-shaped
structures have achieved remarkable performance in this task. However, the
single-stage encoder-decoder unresolvable the inter-class similarity due to the
inadequate utilization of contextual information, such as lesion-tissue
similarity. In addition, most approaches use fine-grained spatial attention to
capture spatial context information, yet fail to generate accurate attention
maps in encoding stage and lack effective regularization. In this work, we
propose a new network, Triple Context Network (TC-Net), with the capture of
spatial contextual information as the core. We firstly design a coarse-grained
patch attention module to generate patch-level attention maps in the encoding
stage to distinguish targets from patches and learn target-specific detail
features. Then, to enrich the representation of boundary information of these
features, a cross-feature fusion module with global contextual information is
explored to guide the selective aggregation of 2D and 3D feature maps, which
compensates for the lack of boundary learning capability of 2D convolution.
Finally, we use multi-scale deconvolution instead of linear interpolation to
enhance the recovery of target space and boundary information in the decoding
stage. Our network is evaluated on the open dataset ATLAS, achieving the
highest DSC score of 0.594, Hausdorff distance of 27.005 mm, and average
symmetry surface distance of 7.137 mm, where our proposed method outperforms
other state-of-the-art methods.
- Abstract(参考訳): 正確な病変分割は脳卒中の臨床マッピングにおいて重要な役割を果たす。
U字型構造に基づく畳み込みニューラルネットワーク(CNN)アプローチはこの課題において顕著なパフォーマンスを達成した。
しかし, 単一段エンコーダ・デコーダは, コンテクスト情報の不十分な利用により, クラス間の類似性を解消できない。
さらに、ほとんどのアプローチでは、空間的文脈情報を取り込むために細かな空間的注意を用いるが、符号化段階で正確な注意マップを生成することができず、効果的な正規化が欠如している。
本研究では,空間的文脈情報を中心として,新たなネットワークであるTriple Context Network (TC-Net)を提案する。
まず,粒度の粗いパッチアテンションモジュールを設計し,パッチレベルのアテンションマップを生成することで,ターゲットとパッチを区別し,ターゲット固有の詳細な特徴を学習する。
次に、これらの特徴の境界情報の表現を豊かにするために、2d特徴マップと3d特徴マップの選択的集約を導くために、グローバル文脈情報を備えたクロスフィーチャー融合モジュールを探索し、2d畳み込みにおける境界学習能力の欠如を補う。
最後に,線形補間の代わりにマルチスケールのデコンボリューションを用い,デコード段階での目標空間と境界情報の復元性を高める。
提案手法はオープンデータセットアトラス上で評価され,最大dscスコアは0.594,ハウスドルフ距離27.005 mm,平均対称性表面距離7.137 mmであり,提案手法は他の最先端手法よりも優れている。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - ELA: Efficient Local Attention for Deep Convolutional Neural Networks [15.976475674061287]
本稿では、簡単な構造で大幅な性能向上を実現するための効率的な局所注意法(ELA)を提案する。
これらの課題を克服するため、我々は1次元畳み込みとグループ正規化機能強化技術の導入を提案する。
ELAはResNet、MobileNet、DeepLabといったディープCNNネットワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-03-02T08:06:18Z) - Structure Aware and Class Balanced 3D Object Detection on nuScenes
Dataset [0.0]
NuTonomyのnuScenesデータセットは、KITTIのような一般的なデータセットを大きく拡張している。
このモデルの局所化精度は、ダウンスケールされた特徴写像における空間情報の損失に影響される。
本稿では,3次元点雲の構造情報をフル活用した補助ネットワークを設計することで,CBGSモデルの性能を向上させることを提案する。
論文 参考訳(メタデータ) (2022-05-25T06:18:49Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Self-semantic contour adaptation for cross modality brain tumor
segmentation [13.260109561599904]
本稿では,前駆的なタスクへの適応を容易にするために,低レベルエッジ情報を活用することを提案する。
正確な輪郭は、意味適応を導くために空間情報を提供する。
われわれはBraTS2018データベース上で脳腫瘍のクロスモーダルセグメンテーションの枠組みについて検討した。
論文 参考訳(メタデータ) (2022-01-13T15:16:55Z) - Residual Moment Loss for Medical Image Segmentation [56.72261489147506]
位置情報は,対象物体の多様体構造を捉えた深層学習モデルに有効であることが証明された。
既存のほとんどの手法は、ネットワークが学習するために、位置情報を暗黙的にエンコードする。
セグメント化対象の位置情報を明示的に埋め込むために,新しい損失関数,すなわち残差モーメント(RM)損失を提案する。
論文 参考訳(メタデータ) (2021-06-27T09:31:49Z) - S3Net: 3D LiDAR Sparse Semantic Segmentation Network [1.330528227599978]
S3NetはLiDARポイントクラウドセマンティックセグメンテーションのための新しい畳み込みニューラルネットワークである。
sparse intra-channel attention module (sintraam)とsparse inter-channel attention module (sinteram)で構成されるエンコーダ-デコーダバックボーンを採用する。
論文 参考訳(メタデータ) (2021-03-15T22:15:24Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Joint Left Atrial Segmentation and Scar Quantification Based on a DNN
with Spatial Encoding and Shape Attention [21.310508988246937]
本稿では,左心房(LA)空洞を同時に分割し,LAの傷跡を定量化するエンド・ツー・エンドディープ・ニューラル・ネットワーク(DNN)を提案する。
提案フレームワークは,空間符号化(SE)ロスを導入することで,目標の連続的な空間情報を組み込む。
LAセグメンテーションでは、3D基本U-Netと比較して平均ハウスドルフ距離を36.4mmから20.0mmに減らした。
論文 参考訳(メタデータ) (2020-06-23T13:55:29Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。