論文の概要: Modeling Human Preference and Stochastic Error for Medical Image
Segmentation with Multiple Annotators
- arxiv url: http://arxiv.org/abs/2111.13410v1
- Date: Fri, 26 Nov 2021 10:28:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:27:53.048568
- Title: Modeling Human Preference and Stochastic Error for Medical Image
Segmentation with Multiple Annotators
- Title(参考訳): マルチアノテータを用いた医用画像分割のための人間の嗜好と確率誤差のモデル化
- Authors: Liao Zehui, Hu Shishuai, Xie Yutong, Xia Yong
- Abstract要約: 医用画像分割作業におけるアノテータ関連バイアスの問題を強調した。
そこで我々は,それに対応するためのPreference-involved Distribution Learning (PADL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Manual annotation of medical images is highly subjective, leading to
inevitable and huge annotation biases. Deep learning models may surpass human
performance on a variety of tasks, but they may also mimic or amplify these
biases. Although we can have multiple annotators and fuse their annotations to
reduce stochastic errors, we cannot use this strategy to handle the bias caused
by annotators' preferences. In this paper, we highlight the issue of
annotator-related biases on medical image segmentation tasks, and propose a
Preference-involved Annotation Distribution Learning (PADL) framework to
address it from the perspective of disentangling an annotator's preference from
stochastic errors using distribution learning so as to produce not only a meta
segmentation but also the segmentation possibly made by each annotator. Under
this framework, a stochastic error modeling (SEM) module estimates the meta
segmentation map and average stochastic error map, and a series of human
preference modeling (HPM) modules estimate each annotator's segmentation and
the corresponding stochastic error. We evaluated our PADL framework on two
medical image benchmarks with different imaging modalities, which have been
annotated by multiple medical professionals, and achieved promising performance
on all five medical image segmentation tasks.
- Abstract(参考訳): 医用画像の手動アノテーションは非常に主観的であり、必然的かつ巨大なアノテーションバイアスをもたらす。
ディープラーニングモデルは、さまざまなタスクにおいて人間のパフォーマンスを上回るかもしれないが、これらのバイアスを模倣または増幅することもある。
複数のアノテータを持ち、それらのアノテーションを融合させて確率的エラーを減らすことができるが、アノテータの好みによるバイアスを処理するためにこの戦略は利用できない。
本稿では,医用画像のセグメンテーションタスクにおけるアノテーション関連バイアスの問題を取り上げ,アノテーションの好みを確率的エラーから切り離して,メタセグメンテーションだけでなく,各アノテーションによって可能となるセグメンテーションを生成するという観点から,その問題に対処するためのpide-involved annotation distribution learning(padl)フレームワークを提案する。
この枠組みの下では、確率的エラーモデリング(sem)モジュールは、メタセグメンテーションマップと平均確率的エラーマップを推定し、一連の人間選好モデリング(hpm)モジュールは、各アノテーションのセグメンテーションと対応する確率的エラーを推定する。
われわれは,複数の医療専門家が注釈を付した2つの画像モダリティの異なる医用画像ベンチマークを用いてPADLフレームワークを評価し,5つの医用画像セグメンテーションタスクで有望なパフォーマンスを達成した。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Cross-model Mutual Learning for Exemplar-based Medical Image Segmentation [25.874281336821685]
Exemplar-based Medical Image(CMEMS)のためのクロスモデル相互学習フレームワーク
外来医用画像のためのクロスモデル相互学習フレームワーク(CMEMS)について紹介する。
論文 参考訳(メタデータ) (2024-04-18T00:18:07Z) - Probabilistic Modeling of Inter- and Intra-observer Variability in
Medical Image Segmentation [12.594098548008832]
我々は、確率的オブザーバとiNtraオブザーバ変異NetwOrk(ピオノ)と呼ばれる新しいモデルを提案する。
各レーダのラベル付け動作を多次元確率分布で捉え、確率的セグメンテーション予測を生成する。
実世界のがんセグメンテーションデータセットの実験は、ピオノの精度と効率を実証している。
論文 参考訳(メタデータ) (2023-07-21T07:29:38Z) - Annotator Consensus Prediction for Medical Image Segmentation with
Diffusion Models [70.3497683558609]
医療画像のセグメンテーションにおける大きな課題は、複数の専門家が提供したアノテーションにおける、サーバ間の大きなばらつきである。
拡散モデルを用いたマルチエキスパート予測のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T10:01:05Z) - Transformer-based Annotation Bias-aware Medical Image Segmentation [26.510486941806708]
手動画像分割は主観的であり、アノテータ関連バイアスに悩まされる。
本稿では,アノテータの嗜好と誤りをモデル化することで,アノテータ関連バイアスに対処するトランスフォーマーベースの医療画像分割モデルを提案する。
以上の結果から,TABはアノテータ関連バイアスを考慮した既存の医用画像セグメンテーションモデルより優れていることが示唆された。
論文 参考訳(メタデータ) (2023-06-02T08:09:53Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Mixed-UNet: Refined Class Activation Mapping for Weakly-Supervised
Semantic Segmentation with Multi-scale Inference [28.409679398886304]
我々は、デコードフェーズに2つの並列分岐を持つMixed-UNetという新しいモデルを開発する。
地域病院や公開データセットから収集したデータセットに対して,いくつかの一般的なディープラーニングに基づくセグメンテーションアプローチに対して,設計したMixed-UNetを評価した。
論文 参考訳(メタデータ) (2022-05-06T08:37:02Z) - Anomaly Detection-Inspired Few-Shot Medical Image Segmentation Through
Self-Supervision With Supervoxels [23.021720656733088]
そこで本研究では, 異常検出に着想を得た新規な医用画像分割手法を提案する。
我々は1つの前景のプロトタイプを使用して、全てのクエリピクセルの異常スコアを計算する。
セグメンテーションは、学習しきい値を用いてこれらの異常スコアをしきい値にすることで実行される。
論文 参考訳(メタデータ) (2022-03-03T22:36:39Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。