論文の概要: Leveraging Language Models for Automated Patient Record Linkage
- arxiv url: http://arxiv.org/abs/2504.15261v1
- Date: Mon, 21 Apr 2025 17:41:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:53:53.231631
- Title: Leveraging Language Models for Automated Patient Record Linkage
- Title(参考訳): 自動記録リンクのための言語モデルの活用
- Authors: Mohammad Beheshti, Lovedeep Gondara, Iris Zachary,
- Abstract要約: 本研究では,言語モデルを用いた患者記録自動リンクの実現可能性について検討した。
我々はミズーリ癌登録研究センターの実際の医療データを活用している。
- 参考スコア(独自算出の注目度): 0.5461938536945723
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Objective: Healthcare data fragmentation presents a major challenge for linking patient data, necessitating robust record linkage to integrate patient records from diverse sources. This study investigates the feasibility of leveraging language models for automated patient record linkage, focusing on two key tasks: blocking and matching. Materials and Methods: We utilized real-world healthcare data from the Missouri Cancer Registry and Research Center, linking patient records from two independent sources using probabilistic linkage as a baseline. A transformer-based model, RoBERTa, was fine-tuned for blocking using sentence embeddings. For matching, several language models were experimented under fine-tuned and zero-shot settings, assessing their performance against ground truth labels. Results: The fine-tuned blocking model achieved a 92% reduction in the number of candidate pairs while maintaining near-perfect recall. In the matching task, fine-tuned Mistral-7B achieved the best performance with only 6 incorrect predictions. Among zero-shot models, Mistral-Small-24B performed best, with a total of 55 incorrect predictions. Discussion: Fine-tuned language models achieved strong performance in patient record blocking and matching with minimal errors. However, they remain less accurate and efficient than a hybrid rule-based and probabilistic approach for blocking. Additionally, reasoning models like DeepSeek-R1 are impractical for large-scale record linkage due to high computational costs. Conclusion: This study highlights the potential of language models for automating patient record linkage, offering improved efficiency by eliminating the manual efforts required to perform patient record linkage. Overall, language models offer a scalable solution that can enhance data integration, reduce manual effort, and support disease surveillance and research.
- Abstract(参考訳): 目的: 医療データの断片化は、患者データをリンクする上で大きな課題を示し、様々なソースから患者の記録を統合するために堅牢な記録リンクを必要とする。
本研究では,言語モデルを用いた患者の自動記録リンクの実現可能性について検討し,ブロッキングとマッチングという2つの重要な課題に焦点をあてた。
資料と方法:ミズーリがん登録研究センターの実際の医療データを用いて,確率的連鎖をベースラインとして,2つの独立したソースからの患者記録をリンクした。
変換器ベースのモデルであるRoBERTaは、文の埋め込みによるブロッキングのために微調整された。
マッチングのために、いくつかの言語モデルが微調整およびゼロショット設定の下で実験され、それらの性能を地上の真理ラベルと比較した。
結果: 微調整ブロッキングモデルは, ほぼ完全リコールを維持しつつ, 候補ペア数を92%削減した。
マッチングタスクでは、微調整されたMistral-7Bが6つの誤った予測で最高の性能を達成した。
ゼロショットモデルの中で、Mistral-Small-24Bは55個の誤った予測で最高の性能を発揮した。
考察: 微調整言語モデルは, 患者記録のブロッキングと最小限のエラーとのマッチングにおいて, 高い性能を達成した。
しかし、これらはブロッキングのためのハイブリッドルールベースの確率論的アプローチよりも正確で効率的である。
さらに、DeepSeek-R1のような推論モデルは、計算コストが高いため、大規模なレコードリンクには実用的ではない。
結論: 本研究は, 患者記録リンクの自動化のための言語モデルの可能性を強調し, 患者記録リンクの実施に必要な手作業を排除することにより, 効率を向上するものである。
全体として、言語モデルは、データ統合を強化し、手作業を減らすとともに、疾病の監視と研究をサポートするスケーラブルなソリューションを提供する。
関連論文リスト
- PatientDx: Merging Large Language Models for Protecting Data-Privacy in Healthcare [2.1046377530356764]
大規模言語モデル(LLM)の微調整は、与えられたタスクにおけるモデルパフォーマンスを改善するためのデフォルトのプラクティスとなっている。
patientDxはモデルマージのフレームワークであり、患者データへの微調整や適応を必要とせずに、健康予測タスクに有効なLCMを設計できる。
論文 参考訳(メタデータ) (2025-04-24T08:21:04Z) - SPARC: Score Prompting and Adaptive Fusion for Zero-Shot Multi-Label Recognition in Vision-Language Models [74.40683913645731]
Zero-shot Multi-label Recognition (MLR) with Vision-Language Models (VLMs) は、トレーニングデータ、モデルチューニング、アーキテクチャの変更なしに重要な課題に直面している。
我々の研究は、VLMをブラックボックスとして扱い、トレーニングデータや地上の真実を使わずにスコアを活用する新しいソリューションを提案する。
これらのプロンプトスコアの分析により、VLMバイアスとAND'/OR信号の曖昧さが明らかになり、特に、最高スコアは2番目に高いスコアに比べて驚くほど低い。
論文 参考訳(メタデータ) (2025-02-24T07:15:05Z) - Efficient Brain Tumor Classification with Lightweight CNN Architecture: A Novel Approach [0.0]
MRI画像を用いた脳腫瘍の分類は、早期かつ正確な検出が患者の予後に大きな影響を及ぼす医療診断において重要である。
近年のディープラーニング(DL)の進歩は将来性を示しているが、多くのモデルは精度と計算効率のバランスに苦慮している。
本稿では,分離可能な畳み込みと圧縮・励振ブロック(SEブロック)を統合した新しいモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-02-01T21:06:42Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Classification of Radiological Text in Small and Imbalanced Datasets in a Non-English Language [8.93554009307115]
自然言語処理は、非英語の小さなデータセットを含む現実世界のアプリケーションでは性能が劣る可能性がある。
BERT-like transformer, few-shot learning with sentence transformer (SetFit) などのNLPモデルのセットを評価し,大規模言語モデル (LLM) を誘導した。
以上の結果から,放射線学報告の対象領域で事前訓練されたBERT様モデルでは,このシナリオに最適な性能が得られることが示唆された。
論文 参考訳(メタデータ) (2024-09-30T09:52:28Z) - Utilizing Large Language Models to Generate Synthetic Data to Increase the Performance of BERT-Based Neural Networks [0.7071166713283337]
私たちは機械学習モデルをトレーニングするのに十分な規模のデータセットを作成しました。
私たちのゴールは自閉症の基準に対応する行動のラベル付けです。
データの増大はリコールを13%増加させたが、精度は16%低下した。
論文 参考訳(メタデータ) (2024-05-08T03:18:12Z) - Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - A Few-Shot Approach to Dysarthric Speech Intelligibility Level
Classification Using Transformers [0.0]
発声障害(Dysarthria)は、言葉の発音が難しいことによるコミュニケーションを妨げる言語障害である。
文献の多くは、変形性音声に対するASRシステムの改善に焦点を当てている。
この研究は、変形の有無を正確に分類できるモデルを開発することを目的としている。
論文 参考訳(メタデータ) (2023-09-17T17:23:41Z) - PRISM: Mitigating EHR Data Sparsity via Learning from Missing Feature Calibrated Prototype Patient Representations [7.075420686441701]
PRISMは、類似した患者のプロトタイプ表現を活用することで、データを間接的にインプットするフレームワークである。
PRISMには、ステータスの欠如を考慮した各機能の信頼性を評価する機能信頼モジュールも含まれている。
MIMIC-III, MIMIC-IV, PhysioNet Challenge 2012, eICU データセットを用いた実験により, PRISM の院内死亡予測と30日間の読解作業における優れた性能が示された。
論文 参考訳(メタデータ) (2023-09-08T07:01:38Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Discover, Explanation, Improvement: An Automatic Slice Detection
Framework for Natural Language Processing [72.14557106085284]
スライス検出モデル(SDM)は、データポイントの低パフォーマンスなグループを自動的に識別する。
本稿では,NLPタスクの分類のための "Discover, Explain, improve (DEIM)" というベンチマークを提案する。
評価の結果,Edisaは情報的セマンティックな特徴を持つ誤り発生データポイントを正確に選択できることがわかった。
論文 参考訳(メタデータ) (2022-11-08T19:00:00Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。