論文の概要: CheXpert++: Approximating the CheXpert labeler for
Speed,Differentiability, and Probabilistic Output
- arxiv url: http://arxiv.org/abs/2006.15229v1
- Date: Fri, 26 Jun 2020 22:14:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:23:07.062567
- Title: CheXpert++: Approximating the CheXpert labeler for
Speed,Differentiability, and Probabilistic Output
- Title(参考訳): CheXpert++: 速度、微分可能性、確率出力に対するCheXpertラベルの近似
- Authors: Matthew B. A. McDermott (1), Tzu Ming Harry Hsu (1), Wei-Hung Weng
(1), Marzyeh Ghassemi (2), Peter Szolovits (1) ((1) Computer Science and
Artificial Intelligence Laboratory, MIT, (2) Department of Computer Science,
University of Toronto and Vector Institute)
- Abstract要約: CheXpert(チェXpert)は、胸部X線診断レポートの診断ラベルを作成するラベルである。
CheXpertは差別化できないため、ラベルを流れるために勾配を必要とするアプリケーションでは使用できない。
$texttCheXpert++$はCheXpertと99.81%のパリティを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is often infeasible or impossible to obtain ground truth labels for
medical data. To circumvent this, one may build rule-based or other
expert-knowledge driven labelers to ingest data and yield silver labels absent
any ground-truth training data. One popular such labeler is CheXpert, a labeler
that produces diagnostic labels for chest X-ray radiology reports. CheXpert is
very useful, but is relatively computationally slow, especially when integrated
with end-to-end neural pipelines, is non-differentiable so can't be used in any
applications that require gradients to flow through the labeler, and does not
yield probabilistic outputs, which limits our ability to improve the quality of
the silver labeler through techniques such as active learning.
In this work, we solve all three of these problems with
$\texttt{CheXpert++}$, a BERT-based, high-fidelity approximation to CheXpert.
$\texttt{CheXpert++}$ achieves 99.81\% parity with CheXpert, which means it can
be reliably used as a drop-in replacement for CheXpert, all while being
significantly faster, fully differentiable, and probabilistic in output. Error
analysis of $\texttt{CheXpert++}$ also demonstrates that $\texttt{CheXpert++}$
has a tendency to actually correct errors in the CheXpert labels, with
$\texttt{CheXpert++}$ labels being more often preferred by a clinician over
CheXpert labels (when they disagree) on all but one disease task. To further
demonstrate the utility of these advantages in this model, we conduct a
proof-of-concept active learning study, demonstrating we can improve accuracy
on an expert labeled random subset of report sentences by approximately 8\%
over raw, unaltered CheXpert by using one-iteration of active-learning inspired
re-training. These findings suggest that simple techniques in co-learning and
active learning can yield high-quality labelers under minimal, and controllable
human labeling demands.
- Abstract(参考訳): 医療データの真理ラベルを取得することは、しばしば不可能または不可能である。
これを回避するために、ルールベースまたは他の専門家知識駆動のラベラーを構築し、データを取り込み、地上訓練データを持たないシルバーラベルを産出することができる。
そのようなラベルの1つがCheXpertであり、胸部X線ラジオグラフィーレポートの診断ラベルを作成するラベルである。
CheXpertは非常に有用だが、特にエンドツーエンドのニューラルネットワークと統合された場合、比較的計算速度が遅いため、ラベルを流れる勾配を必要とするアプリケーションでは使用できないため、確率的出力は得られないため、アクティブラーニングなどの技術によって銀ラベルの質を向上させる能力は制限される。
本稿では,これら3つの問題を,BERTベースの高忠実なCheXpert近似である$\texttt{CheXpert++}$で解決する。
つまり、chexpertのドロップイン代替として確実に使用できるが、非常に高速で、完全に微分可能で、出力の確率も高い。
また、$\texttt{chexpert++}$のエラー解析では、$\texttt{chexpert++}$は、chexpertラベルの誤りを実際に訂正する傾向が示され、$\texttt{chexpert++}$ラベルは、chexpertラベルよりも臨床医(同意しない場合)が1つの病気以外のタスクで好むことが多い。
このモデルにおけるこれらの利点のさらなる活用を実証するために、我々は、アクティブラーニングインスパイアされた再学習の1イテレーションを用いて、レポート文のランダムなサブセットを、生のCheXpertよりも約8倍の精度で精度を向上できることを示す。
これらの結果は,コラーニングとアクティブラーニングにおける単純な手法が,人間のラベル付け要求を最小かつ制御可能な,高品質なラベラーを生み出すことを示唆する。
関連論文リスト
- Dual-Label Learning With Irregularly Present Labels [14.817794592309637]
本研究は,2ラベル学習に焦点をあて,新たなトレーニングおよび推論フレームワークであるデュアルラベル学習(DLL)を提案する。
提案手法は,F1スコアやMAPEの10%向上により,ベースライン手法よりも一貫した予測を行う。
また,ラベルの欠落率を60%に抑えることで,ラベルの欠落率を10%に抑えることができた。
論文 参考訳(メタデータ) (2024-10-18T11:07:26Z) - Retraining with Predicted Hard Labels Provably Increases Model Accuracy [77.71162068832108]
リトレーニングは、与えられた(ノイズの多い)ラベルで最初にトレーニングすることで得られる人口の精度を向上させることができる。
予測ラベルが与えられたラベルにマッチするサンプルを選択的にリトレーニングすることで、ラベルDP訓練が大幅に改善されることを実証的に示す。
論文 参考訳(メタデータ) (2024-06-17T04:53:47Z) - Enhancing Learning with Label Differential Privacy by Vector Approximation [12.212865127830872]
ラベル微分プライバシ(DP)は、データセットのトレーニングにおいてラベルのプライバシを保護するフレームワークである。
既存のアプローチは、ラベルをランダムに反転させることで、ラベルのプライバシを保護する。
本稿では,実装が容易で,計算オーバーヘッドがほとんどないベクトル近似手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T02:08:45Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - How many labelers do you have? A closer look at gold-standard labels [10.637125300701795]
我々は、非集約ラベル情報へのアクセスによって、ゴールドスタンダードラベルよりも、トレーニングの適格化がより実現可能であることを示す。
我々は,非アグリゲートラベルが学習性能を改善することを含む,実世界のデータセットの予測を行う。
論文 参考訳(メタデータ) (2022-06-24T02:33:50Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Unbiased Loss Functions for Multilabel Classification with Missing
Labels [2.1549398927094874]
欠落ラベルは、極端なマルチラベル分類(XMC)タスクにおいてユビキタスな現象である。
本稿では,異なるマルチラベルリダクションに対する特異な非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-09-23T10:39:02Z) - Self-Supervised Learning from Semantically Imprecise Data [7.24935792316121]
動物」や「鳥」などの不正確なラベルから学ぶことは、熟練したラベル付きトレーニングデータが乏しい場合に重要な機能です。
CHILLAXはこの課題に取り組むために最近提案された方法です。
制約外挿を用いた自己教師型スキームでCHILLAXを拡張して擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-04-22T07:26:14Z) - Learning to Purify Noisy Labels via Meta Soft Label Corrector [49.92310583232323]
最近のディープニューラルネットワーク(DNN)は、ノイズラベルによるバイアス付きトレーニングデータに容易に適合する。
ラベル修正戦略はこの問題を軽減するために一般的に用いられる。
メタ学習モデルを提案する。
論文 参考訳(メタデータ) (2020-08-03T03:25:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。