論文の概要: DuEDL: Dual-Branch Evidential Deep Learning for Scribble-Supervised Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2405.14444v1
- Date: Thu, 23 May 2024 11:23:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 15:34:33.747420
- Title: DuEDL: Dual-Branch Evidential Deep Learning for Scribble-Supervised Medical Image Segmentation
- Title(参考訳): DuEDL:スクリブル・スーパービジョン・メディカルイメージ・セグメンテーションのためのデュアルブランチ・エビデンシャル・ディープラーニング
- Authors: Yitong Yang, Xinli Xu, Haigen Hu, Haixia Long, Qianwei Zhou, Qiu Guan,
- Abstract要約: 我々はDuEDL(Dual-Branch Evi-dential Deep Learning)と呼ばれる新しいフレームワークを提案する。
提案手法は, 精度を犠牲にすることなく, モデルの信頼性と一般化能力を大幅に向上させる。
- 参考スコア(独自算出の注目度): 2.708515419272247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent progress in medical image segmentation with scribble-based annotations, the segmentation results of most models are still not ro-bust and generalizable enough in open environments. Evidential deep learn-ing (EDL) has recently been proposed as a promising solution to model predictive uncertainty and improve the reliability of medical image segmen-tation. However directly applying EDL to scribble-supervised medical im-age segmentation faces a tradeoff between accuracy and reliability. To ad-dress the challenge, we propose a novel framework called Dual-Branch Evi-dential Deep Learning (DuEDL). Firstly, the decoder of the segmentation network is changed to two different branches, and the evidence of the two branches is fused to generate high-quality pseudo-labels. Then the frame-work applies partial evidence loss and two-branch consistent loss for joint training of the model to adapt to the scribble supervision learning. The pro-posed method was tested on two cardiac datasets: ACDC and MSCMRseg. The results show that our method significantly enhances the reliability and generalization ability of the model without sacrificing accuracy, outper-forming state-of-the-art baselines. The code is available at https://github.com/Gardnery/DuEDL.
- Abstract(参考訳): 近年,スクリブルアノテーションによる医用画像のセグメンテーションが進展しているにもかかわらず,ほとんどのモデルではセグメンテーションの結果はロバストではなく,オープン環境では十分に一般化可能である。
Evidential Deep Learning-ing (EDL) は、予測の不確実性をモデル化し、医用画像のセグメンテーションの信頼性を向上させるための有望な解決策として最近提案されている。
しかし, EDL をスクリブル管理型医療インエイジセグメンテーションに直接適用することは, 精度と信頼性のトレードオフに直面している。
そこで我々はDuEDL(Dual-Branch Evi-dential Deep Learning)と呼ばれる新しいフレームワークを提案する。
まず、セグメンテーションネットワークのデコーダを2つの異なるブランチに変更し、2つのブランチの証拠を融合させて高品質な擬似ラベルを生成する。
フレームワークは、スクリブル監視学習に適応するために、モデルのジョイントトレーニングに部分的エビデンス損失と2枝一貫した損失を適用します。
提案法はACDCとMSCMRsegの2つの心的データセットを用いて検討した。
その結果,提案手法は精度を犠牲にすることなくモデルの信頼性と一般化能力を大幅に向上させることを示した。
コードはhttps://github.com/Gardnery/DuEDL.comで公開されている。
関連論文リスト
- An Evidential-enhanced Tri-Branch Consistency Learning Method for Semi-supervised Medical Image Segmentation [8.507454166954139]
半教師付き医用画像セグメンテーションのためのEvidential Tri-Branch Consistency Learning framework (ETC-Net)を提案する。
ETC-Netは、明らかな保守枝、明らかな進歩枝、および明らかな融合枝の3つの枝を雇用している。
また,顕在的学習からの不確実性評価を相互監督訓練に統合し,誤った監視信号の負の影響を緩和する。
論文 参考訳(メタデータ) (2024-04-10T14:25:23Z) - DiffVein: A Unified Diffusion Network for Finger Vein Segmentation and
Authentication [50.017055360261665]
DiffVeinは、静脈分割と認証タスクを同時に処理する統合拡散モデルベースのフレームワークである。
これら2つのブランチ間の機能相互作用を改善するために,2つの特別なモジュールを導入する。
このようにして、我々のフレームワークは拡散とセグメンテーションの埋め込みの間の動的相互作用を可能にする。
論文 参考訳(メタデータ) (2024-02-03T06:49:42Z) - Cross-supervised Dual Classifiers for Semi-supervised Medical Image
Segmentation [10.18427897663732]
半教師付き医用画像分割は、大規模医用画像解析に有望な解決策を提供する。
本稿では、二重分類器(DC-Net)に基づくクロス教師あり学習フレームワークを提案する。
LAとPancreas-CTデータセットの実験は、DC-Netが半教師付きセグメンテーションの他の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-25T16:23:39Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Mixed-UNet: Refined Class Activation Mapping for Weakly-Supervised
Semantic Segmentation with Multi-scale Inference [28.409679398886304]
我々は、デコードフェーズに2つの並列分岐を持つMixed-UNetという新しいモデルを開発する。
地域病院や公開データセットから収集したデータセットに対して,いくつかの一般的なディープラーニングに基づくセグメンテーションアプローチに対して,設計したMixed-UNetを評価した。
論文 参考訳(メタデータ) (2022-05-06T08:37:02Z) - Contrastive and Selective Hidden Embeddings for Medical Image
Segmentation [25.80192874762209]
医用画像セグメンテーションのための対照的な学習ベース重み事前トレーニングを提案する。
不確実性を考慮した特徴選択ブロック(UAFS)と呼ばれる新しい構造は、少数機能による学習目標シフトを処理するように設計されている。
6つのドメインから8つのパブリックデータセットにまたがって、最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-01-21T16:52:19Z) - Trustworthy Medical Segmentation with Uncertainty Estimation [0.7829352305480285]
本稿では,セグメンテーションニューラルネットワークにおける不確実性定量化のための新しいベイズディープラーニングフレームワークを提案する。
我々は磁気共鳴イメージングとCTによる医用画像分割データについて検討した。
複数のベンチマークデータセットに対する実験により,提案するフレームワークは,最先端セグメンテーションモデルと比較して,ノイズや敵攻撃に対してより堅牢であることが示された。
論文 参考訳(メタデータ) (2021-11-10T22:46:05Z) - Cascaded Robust Learning at Imperfect Labels for Chest X-ray
Segmentation [61.09321488002978]
不完全アノテーションを用いた胸部X線分割のための新しいカスケードロバスト学習フレームワークを提案する。
モデルは3つの独立したネットワークから成り,ピアネットワークから有用な情報を効果的に学習できる。
提案手法は,従来の手法と比較して,セグメント化タスクの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-05T15:50:16Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。