論文の概要: CheX-GPT: Harnessing Large Language Models for Enhanced Chest X-ray
Report Labeling
- arxiv url: http://arxiv.org/abs/2401.11505v1
- Date: Sun, 21 Jan 2024 14:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 16:09:12.411157
- Title: CheX-GPT: Harnessing Large Language Models for Enhanced Chest X-ray
Report Labeling
- Title(参考訳): CheX-GPT: 胸部X線レポートラベリングのための大規模言語モデル
- Authors: Jawook Gu, Han-Cheol Cho, Jiho Kim, Kihyun You, Eun Kyoung Hong,
Byungseok Roh
- Abstract要約: 自由テキストラジオロジーレポートは、様々な医療タスクのための豊富なデータソースを提示するが、これらのテキストを効果的にラベル付けすることは依然として困難である。
従来のルールベースのラベリング手法は、様々な自由テキストパターンのニュアンスを捉えていない。
1)慎重に設計したプロンプトを用いて,GPTの潜在ラベリングの可能性を示すこと,2)GPTよりも高速かつ効率的に動作するBERTベースのラベリングCheX-GPTをトレーニングすること,3)ラベリングのパフォーマンスをベンチマークするために,公開のエキスパートアノテートテストセットMIMIC-500を導入したこと,の3つが主な貢献である。
- 参考スコア(独自算出の注目度): 7.219847880678653
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Free-text radiology reports present a rich data source for various medical
tasks, but effectively labeling these texts remains challenging. Traditional
rule-based labeling methods fall short of capturing the nuances of diverse
free-text patterns. Moreover, models using expert-annotated data are limited by
data scarcity and pre-defined classes, impacting their performance, flexibility
and scalability. To address these issues, our study offers three main
contributions: 1) We demonstrate the potential of GPT as an adept labeler using
carefully designed prompts. 2) Utilizing only the data labeled by GPT, we
trained a BERT-based labeler, CheX-GPT, which operates faster and more
efficiently than its GPT counterpart. 3) To benchmark labeler performance, we
introduced a publicly available expert-annotated test set, MIMIC-500,
comprising 500 cases from the MIMIC validation set. Our findings demonstrate
that CheX-GPT not only excels in labeling accuracy over existing models, but
also showcases superior efficiency, flexibility, and scalability, supported by
our introduction of the MIMIC-500 dataset for robust benchmarking. Code and
models are available at https://github.com/kakaobrain/CheXGPT.
- Abstract(参考訳): 自由テキストラジオロジーレポートは、様々な医療タスクのための豊富なデータソースを提供するが、これらのテキストを効果的にラベル付けすることは依然として困難である。
従来のルールベースのラベリング手法は、多様な自由テキストパターンのニュアンスをキャプチャできない。
さらに、エキスパートアノテートデータを使用するモデルは、データ不足や事前定義されたクラスによって制限され、パフォーマンス、柔軟性、スケーラビリティに影響を及ぼす。
これらの課題に対処するため、本研究は3つの主要な貢献をしている。
1) 慎重に設計したプロンプトを用いて, GPT のアデプトラベル化の可能性を示す。
2) GPTでラベル付けされたデータのみを利用することで,GPTよりも高速かつ効率的に動作するBERTベースのラベラであるCheX-GPTを訓練した。
3) ラベルラー性能のベンチマークを行うため,MIMIC検証セットから500ケースを収録したMIMIC-500を一般公開した。
この結果から,chex-gptは既存のモデルよりも精度に優れるだけでなく,ロバストなベンチマークのためのmime-500データセットの導入により,効率,柔軟性,スケーラビリティに優れることが示された。
コードとモデルはhttps://github.com/kakaobrain/chexgptで入手できる。
関連論文リスト
- Enhancing chest X-ray datasets with privacy-preserving large language
models and multi-type annotations: a data-driven approach for improved
classification [0.6906005491572398]
胸部X線(CXR)画像解析では、通常、ルールベースのシステムはレポートからラベルを抽出するために使用される。
我々は,局所的に実行可能なLarge Language Model(LLM)を利用して,CXRレポートの発見ラベルを抽出し,拡張する新しいアプローチであるMAPLEZを提案する。
論文 参考訳(メタデータ) (2024-03-06T20:10:41Z) - Large Language Models and Control Mechanisms Improve Text Readability of
Biomedical Abstracts [17.008098084175323]
本稿では,生物医学的抽象的単純化作業における最先端の大規模言語モデル(LLM)の能力について検討する。
適用方法は、ドメインファインチューニングとプロンプトベースの学習を含む。
BLEU,ROUGE,SARI,BERTscoreなど,さまざまな自動評価指標を用い,人的評価を行った。
論文 参考訳(メタデータ) (2023-09-22T22:47:32Z) - SLPT: Selective Labeling Meets Prompt Tuning on Label-Limited Lesion
Segmentation [57.37875162629063]
本稿では,限定ラベルの性能向上のために,選択的ラベリングと即時チューニングを組み合わせたフレームワークを提案する。
肝腫瘍の分節化について検討し, 従来の微調整を6%程度で達成した。
論文 参考訳(メタデータ) (2023-08-09T12:22:49Z) - Automated Labeling of German Chest X-Ray Radiology Reports using Deep
Learning [50.591267188664666]
本稿では,ルールベースのドイツ語CheXpertモデルによってラベル付けされたレポートに基づいて,ディープラーニングに基づくCheXpertラベル予測モデルを提案する。
その結果,3つのタスクすべてにおいて,ルールベースモデルを大幅に上回ったアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-06-09T16:08:35Z) - Text-Augmented Open Knowledge Graph Completion via Pre-Trained Language
Models [53.09723678623779]
本稿では,高品質なクエリプロンプトを自動的に生成し,大規模テキストコーパスからサポート情報を取得するためのTAGREALを提案する。
その結果、TAGREALは2つのベンチマークデータセット上で最先端のパフォーマンスを達成することがわかった。
TAGREALは、限られたトレーニングデータであっても、既存の埋め込みベース、グラフベース、およびPLMベースの手法よりも優れた性能を有することが判明した。
論文 参考訳(メタデータ) (2023-05-24T22:09:35Z) - PINA: Leveraging Side Information in eXtreme Multi-label Classification
via Predicted Instance Neighborhood Aggregation [105.52660004082766]
eXtreme Multi-label Classification(XMC)問題は、非常に大きなラベル空間から関連するラベルを見つけることを目指している。
一般XMC問題に対するデータ強化手法であるPINA(Predicted Instance Neighborhood Aggregation)を提案する。
ラベルと入力インスタンスを機能のないインジケータと独立したエントリとして扱う既存のほとんどのXMCフレームワークとは異なり、PINAはラベルメタデータとトレーニングインスタンス間の相関関係から情報を抽出する。
論文 参考訳(メタデータ) (2023-05-21T05:00:40Z) - Ground Truth Inference for Weakly Supervised Entity Matching [76.6732856489872]
弱監督タスクのための単純だが強力なラベル付けモデルを提案する。
次に、エンティティマッチングのタスクに特化してラベルモデルを調整します。
その結果,従来の手法よりもF1スコアが9%高い結果が得られた。
論文 参考訳(メタデータ) (2022-11-13T17:57:07Z) - Eliciting and Learning with Soft Labels from Every Annotator [31.10635260890126]
個々のアノテータからソフトラベルを効率よく抽出することに注力する。
ラベルによる学習は,従来の手法と同等のモデル性能を達成できることを実証する。
論文 参考訳(メタデータ) (2022-07-02T12:03:00Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z) - CheXbert: Combining Automatic Labelers and Expert Annotations for
Accurate Radiology Report Labeling Using BERT [6.458158112222296]
医用画像レポートラベリングにおけるBERTに基づくアプローチを提案する。
本稿では,ルールベースラベルのアノテーションに基づいてトレーニングしたBERTモデルの優れた性能を示す。
我々の最終モデルであるCheXbertは、統計的に有意な、以前の最高のルールベースのラベルよりも優れていることが分かりました。
論文 参考訳(メタデータ) (2020-04-20T09:46:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。