論文の概要: LLM-Match: An Open-Sourced Patient Matching Model Based on Large Language Models and Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2503.13281v1
- Date: Mon, 17 Mar 2025 15:31:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 16:00:45.352758
- Title: LLM-Match: An Open-Sourced Patient Matching Model Based on Large Language Models and Retrieval-Augmented Generation
- Title(参考訳): LLM-Match:大規模言語モデルと検索拡張生成に基づくオープンソース患者マッチングモデル
- Authors: Xiaodi Li, Shaika Chowdhury, Chung Il Wi, Maria Vassilaki, Ken Liu, Terence T Sio, Owen Garrick, Young J Juhn, James R Cerhan, Cui Tao, Nansu Zong,
- Abstract要約: 患者マッチングとは、患者を適切な臨床試験に結びつけるプロセスであり、医療記録を正確に識別し、治験適格基準と整合させることである。
LLM-Matchは、細調整されたオープンソースの大規模言語モデルを活用する、患者マッチングのための新しいフレームワークである。
我々は、オープンソースモデルを用いて、n2c2、SIGIR、TREC 2021、TREC 2022の4つのオープンデータセットで評価し、TrialGPT、Zero-Shot、GPT-4ベースのクローズドモデルと比較した。
- 参考スコア(独自算出の注目度): 6.861906038902473
- License:
- Abstract: Patient matching is the process of linking patients to appropriate clinical trials by accurately identifying and matching their medical records with trial eligibility criteria. We propose LLM-Match, a novel framework for patient matching leveraging fine-tuned open-source large language models. Our approach consists of four key components. First, a retrieval-augmented generation (RAG) module extracts relevant patient context from a vast pool of electronic health records (EHRs). Second, a prompt generation module constructs input prompts by integrating trial eligibility criteria (both inclusion and exclusion criteria), patient context, and system instructions. Third, a fine-tuning module with a classification head optimizes the model parameters using structured prompts and ground-truth labels. Fourth, an evaluation module assesses the fine-tuned model's performance on the testing datasets. We evaluated LLM-Match on four open datasets, n2c2, SIGIR, TREC 2021, and TREC 2022, using open-source models, comparing it against TrialGPT, Zero-Shot, and GPT-4-based closed models. LLM-Match outperformed all baselines.
- Abstract(参考訳): 患者マッチングとは、患者を適切な臨床試験に結びつけるプロセスであり、医療記録を正確に識別し、治験適格基準と整合させることである。
LLM-Matchは、細調整されたオープンソースの大規模言語モデルを活用する、患者マッチングのための新しいフレームワークである。
このアプローチは4つのキーコンポーネントで構成されています。
まず、検索強化世代(RAG)モジュールは、電子健康記録(EHR)の広大なプールから関連する患者コンテキストを抽出する。
第二に、プロンプト生成モジュールは、試行適格基準(包含基準と排除基準の両方)、患者コンテキスト、システム命令を統合することにより、入力プロンプトを構成する。
第3に、分類ヘッドを持つ微調整モジュールは、構造化プロンプトとグラウンドトルースラベルを使用してモデルパラメータを最適化する。
第4に、評価モジュールは、テストデータセット上で微調整されたモデルのパフォーマンスを評価する。
我々は,オープンソースモデルを用いて,N2c2,SIGIR,TREC 2021,TREC 2022の4つのオープンデータセット上でLLM-Matchを評価し,TrialGPT,Zero-Shot,GPT-4ベースのクローズドモデルと比較した。
LLM-Matchは全てのベースラインを上回りました。
関連論文リスト
- Question Answering on Patient Medical Records with Private Fine-Tuned LLMs [1.8524621910043437]
大規模言語モデル(LLM)は、医療データに対する意味的質問応答(QA)を可能にする。
プライバシとコンプライアンスを保証するには、LLMのエッジとプライベートのデプロイメントが必要です。
GPT-4 や GPT-4o などのベンチマークモデルに対して,プライベートホスト型,微調整型 LLM の評価を行った。
論文 参考訳(メタデータ) (2025-01-23T14:13:56Z) - LLM-RG4: Flexible and Factual Radiology Report Generation across Diverse Input Contexts [14.72366043711941]
現在の放射線学レポート生成モデルは、固定的なタスクパラダイムに制約されている。
本稿ではLLM-RG4という新しい大規模言語モデル(LLM)に基づくRRGフレームワークを提案する。
我々のモデルは入力非依存の幻覚を最小限に抑えているのに対し、現在のオープンソースモデルは一般的にこの問題に悩まされている。
論文 参考訳(メタデータ) (2024-12-16T17:29:51Z) - CLINICSUM: Utilizing Language Models for Generating Clinical Summaries from Patient-Doctor Conversations [2.77462589810782]
クリニックサムは、患者と医師の会話から臨床要約を自動的に生成するように設計されたフレームワークである。
自動測定(ROUGE、BERTScoreなど)と専門家による評価によって評価される。
論文 参考訳(メタデータ) (2024-12-05T15:34:02Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Model-GLUE: Democratized LLM Scaling for A Large Model Zoo in the Wild [84.57103623507082]
本稿では,全体論的な大規模言語モデルスケーリングガイドラインであるModel-GLUEを紹介する。
既存のスケーリングテクニック,特に選択的マージ,および混合の変種をベンチマークする。
次に、異種モデル動物園の選択と集約のための最適な戦略を定式化する。
我々の手法は、マージ可能なモデルのクラスタリング、最適なマージ戦略選択、クラスタの統合を含む。
論文 参考訳(メタデータ) (2024-10-07T15:55:55Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Distilling Large Language Models for Matching Patients to Clinical
Trials [3.4068841624198942]
近年の大規模言語モデル(LLMs)の成功は、医療分野における彼らの採用の道を開いた。
本研究は,患者と臨床の整合性に対するプロプライエタリ (GPT-3.5, GPT-4) とオープンソース LLM (LLAMA 7B, 13B, 70B) の併用性について,最初の系統的検討を行った。
この制限された合成データセットを微調整したオープンソースのLLMは、プロプライエタリなデータセットと同等の性能を示した。
論文 参考訳(メタデータ) (2023-12-15T17:11:07Z) - An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT [80.33783969507458]
放射線医学報告の「印象」セクションは、放射線医と他の医師とのコミュニケーションにとって重要な基盤である。
近年の研究では、大規模医療用テキストデータを用いた印象自動生成の有望な成果が得られている。
これらのモデルは、しばしば大量の医療用テキストデータを必要とし、一般化性能が劣る。
論文 参考訳(メタデータ) (2023-04-17T17:13:42Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Information Extraction of Clinical Trial Eligibility Criteria [6.192164049563104]
本稿では, 臨床トライアル(dot)govにおける治験から共有知識ベースへの基準設定のための情報抽出(IE)アプローチについて検討する。
我々は,この問題を新しい知識ベース集団タスクとみなし,機械学習と文脈自由文法を組み合わせたソリューションを実装した。
我々の知る限り、この研究は、名前付きエンティティ認識に注意に基づく条件付きランダムフィールドアーキテクチャを適用した最初の基準抽出システムである。
論文 参考訳(メタデータ) (2020-06-12T16:25:45Z) - DeepEnroll: Patient-Trial Matching with Deep Embedding and Entailment
Prediction [67.91606509226132]
臨床試験は医薬品開発に不可欠であるが、高価で不正確で不十分な患者募集に苦しむことが多い。
DeepEnrollは、入力基準(タブラリデータ)を一致する推論のための共有潜在空間に共同でエンコードする、クロスモーダル推論学習モデルである。
論文 参考訳(メタデータ) (2020-01-22T17:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。