論文の概要: Diversified and Personalized Multi-rater Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2403.13417v1
- Date: Wed, 20 Mar 2024 09:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 17:28:32.132683
- Title: Diversified and Personalized Multi-rater Medical Image Segmentation
- Title(参考訳): 多様化・パーソナライズされた多層医用画像分割
- Authors: Yicheng Wu, Xiangde Luo, Zhe Xu, Xiaoqing Guo, Lie Ju, Zongyuan Ge, Wenjun Liao, Jianfei Cai,
- Abstract要約: 本稿ではD-Personaという2段階のフレームワークを提案する。
ステージIでは、複数のアノテーションを使って確率的U-Netモデルをトレーニングし、予測の多様性を改善するために制約付き損失を制限した。
ステージIIでは、複数の注意に基づく投影ヘッドを設計し、対応する専門家のプロンプトを共有潜在空間から適応的にクエリし、パーソナライズされた医用画像セグメンテーションを実行する。
- 参考スコア(独自算出の注目度): 43.47142636000329
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Annotation ambiguity due to inherent data uncertainties such as blurred boundaries in medical scans and different observer expertise and preferences has become a major obstacle for training deep-learning based medical image segmentation models. To address it, the common practice is to gather multiple annotations from different experts, leading to the setting of multi-rater medical image segmentation. Existing works aim to either merge different annotations into the "groundtruth" that is often unattainable in numerous medical contexts, or generate diverse results, or produce personalized results corresponding to individual expert raters. Here, we bring up a more ambitious goal for multi-rater medical image segmentation, i.e., obtaining both diversified and personalized results. Specifically, we propose a two-stage framework named D-Persona (first Diversification and then Personalization). In Stage I, we exploit multiple given annotations to train a Probabilistic U-Net model, with a bound-constrained loss to improve the prediction diversity. In this way, a common latent space is constructed in Stage I, where different latent codes denote diversified expert opinions. Then, in Stage II, we design multiple attention-based projection heads to adaptively query the corresponding expert prompts from the shared latent space, and then perform the personalized medical image segmentation. We evaluated the proposed model on our in-house Nasopharyngeal Carcinoma dataset and the public lung nodule dataset (i.e., LIDC-IDRI). Extensive experiments demonstrated our D-Persona can provide diversified and personalized results at the same time, achieving new SOTA performance for multi-rater medical image segmentation. Our code will be released at https://github.com/ycwu1997/D-Persona.
- Abstract(参考訳): 医用スキャンのぼやけた境界や観察者の専門知識や嗜好など固有のデータの不確かさによるアノテーションの不明瞭さは、深層学習に基づく医用画像セグメンテーションモデルを訓練する上で大きな障害となっている。
この問題に対処するためには、さまざまな専門家から複数のアノテーションを集めることが一般的であり、マルチラターな医用画像セグメンテーションの設定につながる。
既存の著作は、様々な医学的文脈でしばしば達成不可能な「地平線」に異なるアノテーションをマージするか、様々な結果を生成するか、あるいは個々の専門家のレーダに対応するパーソナライズされた結果を生成することを目的としている。
ここでは、マルチレイタな医用画像分割、すなわち、多様化された結果とパーソナライズされた結果の両方を得るという、より野心的な目標を掲げる。
具体的には、D-Persona(最初の多様化とパーソナライゼーション)という2段階のフレームワークを提案する。
ステージIでは、複数のアノテーションを使って確率的U-Netモデルをトレーニングし、予測の多様性を改善するために制約付き損失を制限した。
このように、共通潜伏空間は、異なる潜伏符号が多種多様な専門家の意見を示すステージIで構築される。
そして、ステージIIにおいて、複数の注意に基づく投影ヘッドを設計し、対応する専門家のプロンプトを共有潜在空間から適応的にクエリし、パーソナライズされた医用画像セグメンテーションを実行する。
当施設における鼻咽頭癌データセットと肺結節癌データセット(LIDC-IDRI)について検討した。
我々のD-Personaは、同時に多彩でパーソナライズされた結果を提供できることを実証し、マルチレータ画像分割のための新しいSOTA性能を実現した。
私たちのコードはhttps://github.com/ycwu1997/D-Personaで公開されます。
関連論文リスト
- Multi-rater Prompting for Ambiguous Medical Image Segmentation [12.452584289825849]
医用画像が複数の専門家(レーダ)によって独立して注釈付けされる場合、マルチラターアノテーションは一般的に発生する。
本稿では,これら2つの課題を完全に解決するためのマルチラッタープロンプトベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-11T09:13:50Z) - Inter-Rater Uncertainty Quantification in Medical Image Segmentation via
Rater-Specific Bayesian Neural Networks [7.642026462053574]
医用画像セグメンテーションにおけるレータ間不確実性を推定するための新しいベイズニューラルネットワークアーキテクチャを提案する。
まず,不確実性推定に適したワンエンコーダ・マルチデコーダアーキテクチャを提案する。
次に,新しいアーキテクチャのベイズモデルを提案する。
論文 参考訳(メタデータ) (2023-06-28T20:52:51Z) - Annotator Consensus Prediction for Medical Image Segmentation with
Diffusion Models [70.3497683558609]
医療画像のセグメンテーションにおける大きな課題は、複数の専門家が提供したアノテーションにおける、サーバ間の大きなばらつきである。
拡散モデルを用いたマルチエキスパート予測のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T10:01:05Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Using Soft Labels to Model Uncertainty in Medical Image Segmentation [0.0]
複数の医師のアノテーションからソフトラベルを得るための簡易な手法を提案する。
各画像に対して,複数の信頼度でしきい値に閾値を設定できる1つのよく校正された出力を生成する。
提案手法をMICCAI 2021 QUBIQチャレンジで評価し,複数の医用画像セグメンテーションタスクで良好に動作することを示した。
論文 参考訳(メタデータ) (2021-09-26T14:47:18Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。