論文の概要: DEEPBEAS3D: Deep Learning and B-Spline Explicit Active Surfaces
- arxiv url: http://arxiv.org/abs/2309.02335v1
- Date: Tue, 5 Sep 2023 15:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 13:53:51.157669
- Title: DEEPBEAS3D: Deep Learning and B-Spline Explicit Active Surfaces
- Title(参考訳): deepbeas3d:ディープラーニングとb-splineの明示的なアクティブサーフェス
- Authors: Helena Williams and Jo\~ao Pedrosa and Muhammad Asad and Laura Cattani
and Tom Vercauteren and Jan Deprest and Jan D'hooge
- Abstract要約: 畳み込みニューラルネットワーク(CNN)からB-スプライン明示型アクティブサーフェス(BEAS)へのセグメンテーションを表現する対話型セグメンテーションフレームワークの新規な3次元拡張を提案する。
BEASは、セグメンテーションを3D空間で滑らかにし、解剖学的妥当性を高め、ユーザが正確に3D表面を編集できるようにする。
実験の結果,1) 提案したフレームワークは, 表面の輪郭を明示的に制御し, 2) NASA-TLX指数で計算した作業負荷をVOCALに比べて30%削減し, 3) ユーザ時間をVOCALより70%(170秒)短縮した。
- 参考スコア(独自算出の注目度): 3.560949684583438
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning-based automatic segmentation methods have become
state-of-the-art. However, they are often not robust enough for direct clinical
application, as domain shifts between training and testing data affect their
performance. Failure in automatic segmentation can cause sub-optimal results
that require correction. To address these problems, we propose a novel 3D
extension of an interactive segmentation framework that represents a
segmentation from a convolutional neural network (CNN) as a B-spline explicit
active surface (BEAS). BEAS ensures segmentations are smooth in 3D space,
increasing anatomical plausibility, while allowing the user to precisely edit
the 3D surface. We apply this framework to the task of 3D segmentation of the
anal sphincter complex (AS) from transperineal ultrasound (TPUS) images, and
compare it to the clinical tool used in the pelvic floor disorder clinic (4D
View VOCAL, GE Healthcare; Zipf, Austria). Experimental results show that: 1)
the proposed framework gives the user explicit control of the surface contour;
2) the perceived workload calculated via the NASA-TLX index was reduced by 30%
compared to VOCAL; and 3) it required 7 0% (170 seconds) less user time than
VOCAL (p< 0.00001)
- Abstract(参考訳): ディープラーニングに基づく自動セグメンテーション手法は最先端技術となっている。
しかし、トレーニングとテストデータのドメインシフトがパフォーマンスに影響するため、直接臨床応用には不十分であることが多い。
自動セグメンテーションの失敗は、修正を必要とする準最適結果を引き起こす可能性がある。
これらの問題に対処するために,畳み込みニューラルネットワーク(CNN)からB-スプライン明示型アクティブサーフェス(BEAS)へのセグメンテーションを表現する対話型セグメンテーションフレームワークの3次元拡張を提案する。
BEASは、セグメンテーションを3D空間で滑らかにし、解剖学的妥当性を高め、ユーザが正確に3D表面を編集できるようにする。
骨盤底疾患クリニック(4D View VOCAL, GE Healthcare, Zipf, オーストリア)において, 経腹膜超音波(TPUS)画像から肛門括約筋複合体(AS)の3次元分画作業に適用し, 臨床ツールと比較した。
実験の結果は
1) 提案フレームワークは,ユーザに表面輪郭の明示的な制御を与える。
2) nasa-tlx 指標で算出した作業負荷は, 声帯と比較すると30%減少し,
3) VOCAL (p< 0.00001) よりも70% (170秒) 少ないユーザ時間が必要であった。
関連論文リスト
- PRISM Lite: A lightweight model for interactive 3D placenta segmentation in ultrasound [6.249772260759159]
3次元超音波(3DUS)画像から測定した胎盤体積は成長軌跡を追跡する重要なツールであり、妊娠の結果と関連している。
手動セグメンテーションは金の標準であるが、時間がかかり主観的である。
本稿では,3DUS画像から胎盤をリアルタイムでインタラクティブに分割するための,臨床利用を目的とした軽量なインタラクティブセグメンテーションモデルを提案する。
論文 参考訳(メタデータ) (2024-08-09T22:49:19Z) - Enhancing Weakly Supervised 3D Medical Image Segmentation through
Probabilistic-aware Learning [52.249748801637196]
3次元医用画像のセグメンテーションは、疾患の診断と治療計画に重要な意味を持つ課題である。
近年の深層学習の進歩は、完全に教師付き医療画像のセグメンテーションを著しく強化している。
本稿では,3次元医用画像に特化して設計された,確率的適応型弱教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-05T00:46:53Z) - Intraoperative 2D/3D Image Registration via Differentiable X-ray Rendering [5.617649111108429]
DiffPoseは、患者固有のシミュレーションと微分可能な物理ベースのレンダリングを利用して、手動でラベル付けされたデータに頼ることなく正確な2D/3D登録を実現する自己教師型アプローチである。
DiffPoseは手術用データセット全体の術速でサブミリ精度を達成し、既存の教師なしの手法を桁違いに改善し、教師付きベースラインよりも優れています。
論文 参考訳(メタデータ) (2023-12-11T13:05:54Z) - Self-supervised learning via inter-modal reconstruction and feature
projection networks for label-efficient 3D-to-2D segmentation [4.5206601127476445]
ラベル効率のよい3D-to-2Dセグメンテーションのための新しい畳み込みニューラルネットワーク(CNN)と自己教師付き学習(SSL)手法を提案する。
異なるデータセットの結果から、提案されたCNNは、ラベル付きデータに制限のあるシナリオにおいて、Diceスコアの最大8%まで、アートの状態を著しく改善することが示された。
論文 参考訳(メタデータ) (2023-07-06T14:16:25Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Interactive Segmentation via Deep Learning and B-Spline Explicit Active
Surfaces [4.879071251245923]
本稿では,新しい対話型CNNベースのセグメンテーションフレームワークを提案する。
フレームワークのインタラクティブな要素により、ユーザはリアルタイムで輪郭を正確に編集できる。
この枠組みは2次元超音波画像からレバターの2次元セグメンテーションに応用された。
論文 参考訳(メタデータ) (2021-10-25T13:17:53Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。