論文の概要: Rethinking Generalization: The Impact of Annotation Style on Medical
Image Segmentation
- arxiv url: http://arxiv.org/abs/2210.17398v1
- Date: Mon, 31 Oct 2022 15:28:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:54:54.972512
- Title: Rethinking Generalization: The Impact of Annotation Style on Medical
Image Segmentation
- Title(参考訳): 一般化を再考する: アノテーションスタイルが医用画像セグメンテーションに及ぼす影響
- Authors: Brennan Nichyporuk, Jillian Cardinell, Justin Szeto, Raghav Mehta,
Jean-Pierre R. Falet, Douglas L. Arnold, Sotirios A. Tsaftaris, Tal Arbel
- Abstract要約: アノテーションのバイアスを無視するのではなく、アノテーションのバイアスをモデル化することで、データセット間のアノテーションスタイルの違いを考慮できる有望な方法が示される。
次に、特定の画像特徴と相関するモデルアノテーションスタイルに対する画像条件付け手法を提案する。
- 参考スコア(独自算出の注目度): 9.056814157662965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalization is an important attribute of machine learning models,
particularly for those that are to be deployed in a medical context, where
unreliable predictions can have real world consequences. While the failure of
models to generalize across datasets is typically attributed to a mismatch in
the data distributions, performance gaps are often a consequence of biases in
the ``ground-truth" label annotations. This is particularly important in the
context of medical image segmentation of pathological structures (e.g.
lesions), where the annotation process is much more subjective, and affected by
a number underlying factors, including the annotation protocol, rater
education/experience, and clinical aims, among others. In this paper, we show
that modeling annotation biases, rather than ignoring them, poses a promising
way of accounting for differences in annotation style across datasets. To this
end, we propose a generalized conditioning framework to (1) learn and account
for different annotation styles across multiple datasets using a single model,
(2) identify similar annotation styles across different datasets in order to
permit their effective aggregation, and (3) fine-tune a fully trained model to
a new annotation style with just a few samples. Next, we present an
image-conditioning approach to model annotation styles that correlate with
specific image features, potentially enabling detection biases to be more
easily identified.
- Abstract(参考訳): 一般化は機械学習モデルの重要な属性であり、特に信頼性の低い予測が現実的な結果をもたらす、医学的コンテキストに展開すべきものである。
データセットをまたいで一般化するモデルの失敗は、典型的にはデータ分布のミスマッチに起因するが、パフォーマンスのギャップは、しばしば ``ground-truth" ラベルアノテーションのバイアスの結果である。
これは、アノテーションプロセスがより主観的であり、アノテーションプロトコル、レートラー教育/経験、臨床目的など多くの基礎要因に影響される、病理構造(例えば病変)の医用画像分割の文脈において特に重要である。
本稿では,アノテーションのバイアスを無視するのではなく,データセット間のアノテーションスタイルの違いを考慮に入れた,有望な手法を示す。
そこで本研究では,(1)単一モデルを用いて複数のデータセットにまたがる異なるアノテーションスタイルを学習し,説明すること,(2)有効なアグリゲーションを可能にするために,異なるデータセットにまたがる類似アノテーションスタイルを識別すること,(3)完全に訓練されたモデルを少数のサンプルで新しいアノテーションスタイルに微調整することを提案する。
次に,特定の画像特徴に関連付けられたアノテーションスタイルをモデル化するイメージコンディショニング手法を提案する。
関連論文リスト
- Separating common from salient patterns with Contrastive Representation
Learning [2.250968907999846]
コントラスト分析は、2つのデータセット間の変動の共通要因を分離することを目的としている。
変分オートエンコーダに基づく現在のモデルは意味表現の学習において性能が劣っている。
コントラスト分析に適合した意味表現表現を学習するためのコントラスト学習の活用を提案する。
論文 参考訳(メタデータ) (2024-02-19T08:17:13Z) - Dual-View Data Hallucination with Semantic Relation Guidance for
Few-Shot Image Recognition [52.19737194653999]
本稿では、意味的関係を利用して、画像認識のための二重視点データ幻覚を導出するフレームワークを提案する。
インスタンスビューデータ幻覚モジュールは、新規クラスの各サンプルを幻覚して新しいデータを生成する。
プロトタイプビューデータ幻覚モジュールは、意味認識尺度を利用して、新しいクラスのプロトタイプを推定する。
論文 参考訳(メタデータ) (2024-01-13T12:32:29Z) - How to Efficiently Annotate Images for Best-Performing Deep Learning
Based Segmentation Models: An Empirical Study with Weak and Noisy Annotations
and Segment Anything Model [18.293057751504122]
ディープニューラルネットワーク(DNN)は多くのイメージセグメンテーションタスクにデプロイされ、優れたパフォーマンスを実現している。
セグメンテーションをトレーニングするためのデータセットを作成するのは面倒で費用がかかる。
この問題を緩和するためには、バウンディングボックスやスクリブルのような弱いラベルのみを提供するか、オブジェクトのより正確な(ノイズの多い)アノテーションを提供することができる。
論文 参考訳(メタデータ) (2023-12-17T04:26:42Z) - That Label's Got Style: Handling Label Style Bias for Uncertain Image
Segmentation [8.363593384698138]
データセットに最先端セグメンテーションの不確実性モデルを適用することで,ラベルの異なるスタイルによるモデルバイアスが生じる可能性があることを示す。
本稿では,アレータ的不確実性推定のためのラベル付けスタイルに基づくモデリング対象条件の更新と,セグメンテーションの不確実性評価のための2つの最先端アーキテクチャの修正について述べる。
論文 参考訳(メタデータ) (2023-03-28T09:43:16Z) - Investigating Failures to Generalize for Coreference Resolution Models [93.95952368743919]
本稿では,現在のコア参照解決モデルの誤差が,データセット間での運用方法の相違にどの程度関連しているかを検討する。
具体的には、モデル性能をいくつかのタイプのコア参照に対応するカテゴリに分け、分解する。
このブレークダウンは、異なるコア参照タイプをまたいだ一般化能力において、最先端モデルがどのように異なるかを調べるのに役立ちます。
論文 参考訳(メタデータ) (2023-03-16T05:32:02Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Disjoint Contrastive Regression Learning for Multi-Sourced Annotations [10.159313152511919]
大規模データセットはディープラーニングモデルの開発に重要である。
複数のアノテータを使用して、データの異なるサブセットをラベル付けすることができる。
異なるアノテータ間の矛盾とバイアスはモデルトレーニングに有害である。
論文 参考訳(メタデータ) (2021-12-31T12:39:04Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Learning from Partially Overlapping Labels: Image Segmentation under
Annotation Shift [68.6874404805223]
腹部臓器分節の文脈におけるラベルの重複から学ぶためのいくつかの方法を提案する。
半教師付きアプローチと適応的クロスエントロピー損失を組み合わせることで、不均一な注釈付きデータをうまく活用できることが判明した。
論文 参考訳(メタデータ) (2021-07-13T09:22:24Z) - A Step Toward More Inclusive People Annotations for Fairness [38.546190750434945]
我々は、MIAPサブセットと呼ばれるOpen Imagesデータセットのサブセットに新しいアノテーションセットを提示する。
MIAPサブセットの属性とラベル付け手法は、モデルフェアネスの研究を可能にするように設計された。
論文 参考訳(メタデータ) (2021-05-05T20:44:56Z) - Commonality-Parsing Network across Shape and Appearance for Partially
Supervised Instance Segmentation [71.59275788106622]
そこで本稿では,マスク付分類から新しい分類へ一般化可能な,クラス非依存の共通性について考察する。
本モデルでは,COCOデータセット上のサンプルセグメンテーションにおける部分教師付き設定と少数ショット設定の両方において,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-24T07:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。