論文の概要: High-Fidelity Pseudo-label Generation by Large Language Models for Training Robust Radiology Report Classifiers
- arxiv url: http://arxiv.org/abs/2505.01693v1
- Date: Sat, 03 May 2025 04:50:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.229457
- Title: High-Fidelity Pseudo-label Generation by Large Language Models for Training Robust Radiology Report Classifiers
- Title(参考訳): ロバスト放射線学レポート分類器の訓練のための大規模言語モデルによる高忠実擬似ラベル生成
- Authors: Brian Wong, Kaito Tanaka,
- Abstract要約: DeBERTa-RADは、最先端のLLM擬似ラベル付けのパワーと、DeBERTaに基づく効率的な知識蒸留を組み合わせた、高精度で高速な胸部X線レポートラベリングのための新しいフレームワークである。
専門家によるMIMIC-500ベンチマークで、DeBERTa-RADは最先端のマクロF1スコア0.9120を達成している。
- 参考スコア(独自算出の注目度): 0.2158126716116375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated labeling of chest X-ray reports is essential for enabling downstream tasks such as training image-based diagnostic models, population health studies, and clinical decision support. However, the high variability, complexity, and prevalence of negation and uncertainty in these free-text reports pose significant challenges for traditional Natural Language Processing methods. While large language models (LLMs) demonstrate strong text understanding, their direct application for large-scale, efficient labeling is limited by computational cost and speed. This paper introduces DeBERTa-RAD, a novel two-stage framework that combines the power of state-of-the-art LLM pseudo-labeling with efficient DeBERTa-based knowledge distillation for accurate and fast chest X-ray report labeling. We leverage an advanced LLM to generate high-quality pseudo-labels, including certainty statuses, for a large corpus of reports. Subsequently, a DeBERTa-Base model is trained on this pseudo-labeled data using a tailored knowledge distillation strategy. Evaluated on the expert-annotated MIMIC-500 benchmark, DeBERTa-RAD achieves a state-of-the-art Macro F1 score of 0.9120, significantly outperforming established rule-based systems, fine-tuned transformer models, and direct LLM inference, while maintaining a practical inference speed suitable for high-throughput applications. Our analysis shows particular strength in handling uncertain findings. This work demonstrates a promising path to overcome data annotation bottlenecks and achieve high-performance medical text processing through the strategic combination of LLM capabilities and efficient student models trained via distillation.
- Abstract(参考訳): 胸部X線レポートの自動ラベリングは、画像ベースの診断モデル、人口健康研究、臨床診断支援などの下流作業を可能にするために不可欠である。
しかし、これらの自由テキストレポートにおける否定や不確実性の高さは、従来の自然言語処理手法に重大な課題をもたらしている。
大きな言語モデル(LLM)は強力なテキスト理解を示すが、大規模で効率的なラベリングへの直接的な応用は計算コストと速度によって制限される。
本稿では,DBERTa-RADについて紹介する。DBERTa-RADは,最先端のLDM擬似ラベル処理のパワーと,DBERTaベースの知識蒸留を併用して,高精度かつ高速な胸部X線レポートラベリングを実現する新しい2段階フレームワークである。
我々は、高度なLCMを利用して、大量の報告コーパスに対して、確実なステータスを含む高品質な擬似ラベルを生成する。
その後、この擬似ラベル付きデータに基づいて、DeBERTa-Baseモデルを調整された知識蒸留戦略を用いて訓練する。
エキスパートアノテートMIMIC-500ベンチマークに基づいて、DeBERTa-RADは最先端のマクロF1スコア0.9120を達成し、既存のルールベースシステム、微調整トランスフォーマーモデル、直接LPM推論を著しく上回り、高スループットアプリケーションに適した実用的な推論速度を維持した。
我々の分析は、不確実な発見に対処する上で、特に強みを示している。
本研究は,LLM能力と蒸留により訓練された効率的な学生モデルとを戦略的に組み合わせて,データアノテーションボトルネックを克服し,高性能な医用テキスト処理を実現するための,有望な道筋を示す。
関連論文リスト
- Semantic Consistency-Based Uncertainty Quantification for Factuality in Radiology Report Generation [20.173287130474797]
生成医療ビジョン大言語モデル(VLLM)は幻覚を起こしやすく、不正確な診断情報を生成できる。
報告レベルと文レベルの不確実性の両方を提供するセマンティック一貫性に基づく不確実性定量化フレームワークを新たに導入する。
提案手法は,MIMIC-CXRデータセット上のtexttRadialogモデルを用いて,20ドル分のレポートを拒否することで,事実性スコアを10ドル%改善する。
論文 参考訳(メタデータ) (2024-12-05T20:43:39Z) - Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - Self-training Large Language Models through Knowledge Detection [26.831873737733737]
大規模な言語モデル(LLM)は、ダウンストリームタスク間で印象的なパフォーマンスを達成するために、広範囲のラベル付きデータセットとトレーニング計算を必要とすることが多い。
本稿では,LLMが独自ラベルを自動でキュレートし,未知のデータサンプルを選択的に学習する自己学習パラダイムについて検討する。
経験的評価は、複数の被験者にまたがる世代における幻覚の減少に有意な改善を示した。
論文 参考訳(メタデータ) (2024-06-17T07:25:09Z) - Automated Labeling of German Chest X-Ray Radiology Reports using Deep
Learning [50.591267188664666]
本稿では,ルールベースのドイツ語CheXpertモデルによってラベル付けされたレポートに基づいて,ディープラーニングに基づくCheXpertラベル予測モデルを提案する。
その結果,3つのタスクすべてにおいて,ルールベースモデルを大幅に上回ったアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-06-09T16:08:35Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。