論文の概要: Learning to Diagnose Privately: DP-Powered LLMs for Radiology Report Classification
- arxiv url: http://arxiv.org/abs/2506.04450v1
- Date: Wed, 04 Jun 2025 21:11:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.425484
- Title: Learning to Diagnose Privately: DP-Powered LLMs for Radiology Report Classification
- Title(参考訳): 個人で診断する学習 : 放射線医学レポート分類のためのDP-Powered LLM
- Authors: Payel Bhattacharjee, Fengwei Tian, Ravi Tandon, Joseph Lo, Heidi Hanson, Geoffrey Rubin, Nirav Merchant, John Gounley,
- Abstract要約: 本研究は,放射線学レポートテキスト上で,差分プライバシー (DP) を用いた大規模言語モデル (LLM) の微調整を行うためのフレームワークを提案する。
MIMIC-CXR胸部X線写真とCT-RATECTを用いた50,232例の胸部X線撮影を行った。
- 参考スコア(独自算出の注目度): 6.335597608766886
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Purpose: This study proposes a framework for fine-tuning large language models (LLMs) with differential privacy (DP) to perform multi-abnormality classification on radiology report text. By injecting calibrated noise during fine-tuning, the framework seeks to mitigate the privacy risks associated with sensitive patient data and protect against data leakage while maintaining classification performance. Materials and Methods: We used 50,232 radiology reports from the publicly available MIMIC-CXR chest radiography and CT-RATE computed tomography datasets, collected between 2011 and 2019. Fine-tuning of LLMs was conducted to classify 14 labels from MIMIC-CXR dataset, and 18 labels from CT-RATE dataset using Differentially Private Low-Rank Adaptation (DP-LoRA) in high and moderate privacy regimes (across a range of privacy budgets = {0.01, 0.1, 1.0, 10.0}). Model performance was evaluated using weighted F1 score across three model architectures: BERT-medium, BERT-small, and ALBERT-base. Statistical analyses compared model performance across different privacy levels to quantify the privacy-utility trade-off. Results: We observe a clear privacy-utility trade-off through our experiments on 2 different datasets and 3 different models. Under moderate privacy guarantees the DP fine-tuned models achieved comparable weighted F1 scores of 0.88 on MIMIC-CXR and 0.59 on CT-RATE, compared to non-private LoRA baselines of 0.90 and 0.78, respectively. Conclusion: Differentially private fine-tuning using LoRA enables effective and privacy-preserving multi-abnormality classification from radiology reports, addressing a key challenge in fine-tuning LLMs on sensitive medical data.
- Abstract(参考訳): 目的: 本研究は, 大規模言語モデル (LLM) を差分プライバシー (DP) で微調整し, 放射線学報告テキスト上で多義性分類を行うためのフレームワークを提案する。
微調整中に校正ノイズを注入することにより、センシティブな患者データに関連するプライバシーリスクを軽減し、分類性能を維持しながらデータの漏洩を防ぐ。
対象と方法:2011年から2019年の間に収集したMIMIC-CXR胸部X線写真とCT-RATECT画像を用いた50,232例の放射線検査を行った。
LLMの微調整は、MIMIC-CXRデータセットから14のラベルを分類し、18のラベルをCT-RATEデータセットから分類するために行われた。
モデル性能は, BERT-medium, BERT-small, ALBERT-baseの3つのモデルアーキテクチャで評価した。
統計分析は、プライバシとユーティリティのトレードオフを定量化するために、さまざまなプライバシレベルのモデルパフォーマンスを比較した。
結果: 2つの異なるデータセットと3つの異なるモデルに関する実験を通じて、明らかなプライバシーとユーティリティのトレードオフを観察します。
MIMIC-CXRで0.88点、CT-RATEで0.59点、民間のLoRAベースラインで0.90点、0.78点である。
結論: LoRA を用いた個人用微調整により,放射線医学報告から有効かつプライバシ保護された多異常分類が可能となり,機密医療データに基づく微調整 LLM の重要な課題に対処する。
関連論文リスト
- Comparative analysis of privacy-preserving open-source LLMs regarding extraction of diagnostic information from clinical CMR imaging reports [0.49998148477760973]
9つのオープンソースのLarge Language Models (LLMs) について, 患者を診断し, 様々な診断カテゴリーに分類する能力について検討した。
GoogleのGemma2モデルは平均F1スコアが0.98で、Qwen2.5:32BとDeepseekR1-32Bはそれぞれ0.96と0.95だった。
論文 参考訳(メタデータ) (2025-05-29T11:25:10Z) - Quantifying uncertainty in lung cancer segmentation with foundation models applied to mixed-domain datasets [6.712251433139412]
医用画像基盤モデルは、極小調整で臓器や腫瘍を分割する能力を示している。
これらのモデルは通常、タスク固有の分散(ID)データセットで評価される。
我々は、自己教師付き学習(SSL)で訓練された複数の基礎モデルの性能を評価するために、計算的に高速なメトリクスの包括的セットを導入する。
SMITは最も高いF1スコア(LRAD: 0.60, 5Rater: 0.64)と低いエントロピー(LRAD: 0.06, 5Rater: 0.12)を生成し、高い腫瘍検出率と確実なセグメンテーションを示した。
論文 参考訳(メタデータ) (2024-03-19T19:36:48Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Exploratory Analysis of Federated Learning Methods with Differential
Privacy on MIMIC-III [0.7349727826230862]
フェデレートされた学習方法は、プライバシに敏感なデータセット上で機械学習モデルをトレーニングする可能性を提供する。
オープンソースMIMIC-IIIデータセット上でのトレーニングモデルにおいて,異なるフェデレーションおよび差分プライバシー手法が与える影響の評価を行う。
論文 参考訳(メタデータ) (2023-02-08T17:27:44Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Differentially Private Estimation of Heterogeneous Causal Effects [9.355532300027727]
本稿では,条件付き平均治療効果(CATE)を差分プライバシー保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
論文 参考訳(メタデータ) (2022-02-22T17:21:18Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。