論文の概要: Interactive Segmentation via Deep Learning and B-Spline Explicit Active
Surfaces
- arxiv url: http://arxiv.org/abs/2110.12939v1
- Date: Mon, 25 Oct 2021 13:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 18:21:21.626298
- Title: Interactive Segmentation via Deep Learning and B-Spline Explicit Active
Surfaces
- Title(参考訳): 深層学習とB-Spline Explicit Active Surfaceによる対話型セグメンテーション
- Authors: Helena Williams, Jo\~ao Pedrosa, Laura Cattani, Susanne Housmans, Tom
Vercauteren, Jan Deprest, Jan D'hooge
- Abstract要約: 本稿では,新しい対話型CNNベースのセグメンテーションフレームワークを提案する。
フレームワークのインタラクティブな要素により、ユーザはリアルタイムで輪郭を正確に編集できる。
この枠組みは2次元超音波画像からレバターの2次元セグメンテーションに応用された。
- 参考スコア(独自算出の注目度): 4.879071251245923
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatic medical image segmentation via convolutional neural networks (CNNs)
has shown promising results. However, they may not always be robust enough for
clinical use. Sub-optimal segmentation would require clinician's to manually
delineate the target object, causing frustration. To address this problem, a
novel interactive CNN-based segmentation framework is proposed in this work.
The aim is to represent the CNN segmentation contour as B-splines by utilising
B-spline explicit active surfaces (BEAS). The interactive element of the
framework allows the user to precisely edit the contour in real-time, and by
utilising BEAS it ensures the final contour is smooth and anatomically
plausible. This framework was applied to the task of 2D segmentation of the
levator hiatus from 2D ultrasound (US) images, and compared to the current
clinical tools used in pelvic floor disorder clinic (4DView, GE Healthcare;
Zipf, Austria). Experimental results show that: 1) the proposed framework is
more robust than current state-of-the-art CNNs; 2) the perceived workload
calculated via the NASA-TLX index was reduced more than half for the proposed
approach in comparison to current clinical tools; and 3) the proposed tool
requires at least 13 seconds less user time than the clinical tools, which was
significant (p=0.001).
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)による医療画像の自動分割は有望な結果を示している。
しかし、臨床使用に十分な堅牢性が常に備わっているとは限らない。
サブオプティカルセグメンテーションでは、臨床医が手動でターゲットオブジェクトをデライン化する必要があるため、フラストレーションが発生する。
この問題に対処するために,新しい対話型cnnに基づくセグメンテーションフレームワークが提案されている。
目的は、B-spline explicit active surfaces (BEAS) を用いて、CNNセグメンテーションの輪郭をB-splineとして表現することである。
フレームワークのインタラクティブな要素により、ユーザはリアルタイムで輪郭を正確に編集することができ、BEASを利用することで、最終輪郭が滑らかで解剖学的に妥当であることを保証する。
この枠組みは, 2次元超音波画像からのレビターの2次元分割作業に適用され, 骨盤床障害クリニック (4dview, ge healthcare; zipf, austria) で使用されている現在の臨床用具と比較した。
実験の結果は
1)提案するフレームワークは,現在の最先端CNNよりも堅牢である。
2) nasa-tlx 指標で算出した作業負荷は, 従来の臨床ツールと比較して, 提案手法の半分以上削減された。
3) 提案ツールでは, 臨床ツールよりも少なくとも13秒未満の時間を要する(p=0.001)。
関連論文リスト
- DEEPBEAS3D: Deep Learning and B-Spline Explicit Active Surfaces [3.560949684583438]
畳み込みニューラルネットワーク(CNN)からB-スプライン明示型アクティブサーフェス(BEAS)へのセグメンテーションを表現する対話型セグメンテーションフレームワークの新規な3次元拡張を提案する。
BEASは、セグメンテーションを3D空間で滑らかにし、解剖学的妥当性を高め、ユーザが正確に3D表面を編集できるようにする。
実験の結果,1) 提案したフレームワークは, 表面の輪郭を明示的に制御し, 2) NASA-TLX指数で計算した作業負荷をVOCALに比べて30%削減し, 3) ユーザ時間をVOCALより70%(170秒)短縮した。
論文 参考訳(メタデータ) (2023-09-05T15:54:35Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - MIDeepSeg: Minimally Interactive Segmentation of Unseen Objects from
Medical Images Using Deep Learning [15.01235930304888]
ユーザインプットとしてクリックのみを必要とすることによる高効率な深層学習に基づく対話型セグメンテーション手法を提案する。
提案フレームワークは,最先端の対話型フレームワークと比較して,ユーザインタラクションが少なく,時間も少なく,正確な結果が得られる。
論文 参考訳(メタデータ) (2021-04-25T14:15:17Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - Collaborative Boundary-aware Context Encoding Networks for Error Map
Prediction [65.44752447868626]
本稿では,AEP-Net と呼ばれる協調的コンテキスト符号化ネットワークを提案する。
具体的には、画像とマスクのより優れた特徴融合のための協調的な特徴変換分岐と、エラー領域の正確な局所化を提案する。
AEP-Netはエラー予測タスクの平均DSCが0.8358,0.8164であり、ピアソン相関係数が0.9873である。
論文 参考訳(メタデータ) (2020-06-25T12:42:01Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z) - SAUNet: Shape Attentive U-Net for Interpretable Medical Image
Segmentation [2.6837973648527926]
本稿では,モデル解釈可能性とロバスト性に着目したShape Attentive U-Net(SAUNet)というアーキテクチャを提案する。
本手法は,SUN09とAC17の2つの大きな心内MRI画像セグメント化データセットに対して,最先端の結果を得られる。
論文 参考訳(メタデータ) (2020-01-21T16:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。