論文の概要: A foundation model for human-AI collaboration in medical literature mining
- arxiv url: http://arxiv.org/abs/2501.16255v1
- Date: Mon, 27 Jan 2025 17:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:03.853838
- Title: A foundation model for human-AI collaboration in medical literature mining
- Title(参考訳): 医学文献マイニングにおける人間-AI連携の基礎モデル
- Authors: Zifeng Wang, Lang Cao, Qiao Jin, Joey Chan, Nicholas Wan, Behdad Afzali, Hyun-Jin Cho, Chang-In Choi, Mehdi Emamverdi, Manjot K. Gill, Sun-Hyung Kim, Yijia Li, Yi Liu, Hanley Ong, Justin Rousseau, Irfan Sheikh, Jenny J. Wei, Ziyang Xu, Christopher M. Zallek, Kyungsang Kim, Yifan Peng, Zhiyong Lu, Jimeng Sun,
- Abstract要約: 本稿では,医学文献からの検索,スクリーニング,データ抽出のためのAI基盤モデルであるLEADSを紹介する。
21,335の体系的レビュー、453,625の臨床試験出版物、27,015の臨床試験登録から、LEADSInstructの633,759の命令データポイントでトレーニングされている。
- 参考スコア(独自算出の注目度): 27.473923366948032
- License:
- Abstract: Systematic literature review is essential for evidence-based medicine, requiring comprehensive analysis of clinical trial publications. However, the application of artificial intelligence (AI) models for medical literature mining has been limited by insufficient training and evaluation across broad therapeutic areas and diverse tasks. Here, we present LEADS, an AI foundation model for study search, screening, and data extraction from medical literature. The model is trained on 633,759 instruction data points in LEADSInstruct, curated from 21,335 systematic reviews, 453,625 clinical trial publications, and 27,015 clinical trial registries. We showed that LEADS demonstrates consistent improvements over four cutting-edge generic large language models (LLMs) on six tasks. Furthermore, LEADS enhances expert workflows by providing supportive references following expert requests, streamlining processes while maintaining high-quality results. A study with 16 clinicians and medical researchers from 14 different institutions revealed that experts collaborating with LEADS achieved a recall of 0.81 compared to 0.77 experts working alone in study selection, with a time savings of 22.6%. In data extraction tasks, experts using LEADS achieved an accuracy of 0.85 versus 0.80 without using LEADS, alongside a 26.9% time savings. These findings highlight the potential of specialized medical literature foundation models to outperform generic models, delivering significant quality and efficiency benefits when integrated into expert workflows for medical literature mining.
- Abstract(参考訳): 体系的な文献レビューはエビデンスベースの医療に不可欠であり、治験論文の包括的な分析を必要とする。
しかし、医学文献マイニングにおける人工知能(AI)モデルの適用は、幅広い治療領域と多様なタスクにわたるトレーニングと評価の不十分さによって制限されている。
本稿では,医学文献からの検索,スクリーニング,データ抽出のためのAI基盤モデルであるLEADSを紹介する。
21,335の体系的レビュー、453,625の臨床試験出版物、27,015の臨床試験登録から、LEADSInstructの633,759の命令データポイントでトレーニングされている。
我々は、LEADSが6つのタスクにおいて、4つの最先端の汎用大言語モデル(LLM)に対して一貫した改善を示すことを示した。
さらに、LEADSはエキスパートリクエストに続くサポート的なリファレンスを提供し、プロセスの合理化と高品質な結果の維持によって、エキスパートワークフローを強化します。
14の異なる機関から16人の臨床医と医学研究者が行った研究によると、LEADSと共同研究した専門家は0.81のリコールを達成した。
データ抽出タスクでは、LEADSを使用する専門家は、26.9%の時間節約とともに、LEADSを使用することなく0.85と0.80の精度を達成した。
これらの知見は、医学文献マイニングのための専門的なワークフローに統合された場合、総合的なモデルよりも優れた品質と効率の恩恵をもたらすための専門的な医学文献基盤モデルの可能性を強調している。
関連論文リスト
- Leveraging Large Language Models for Medical Information Extraction and Query Generation [2.1793134762413433]
本稿では,大言語モデル(LLM)を臨床試験検索プロセスに統合するシステムを提案する。
クエリ生成には6つのLCMを評価し,最小限の計算資源を必要とする,オープンソースと比較的小さなモデルに着目した。
論文 参考訳(メタデータ) (2024-10-31T12:01:51Z) - GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - Bridging Data Gaps in Healthcare: A Scoping Review of Transfer Learning in Biomedical Data Analysis [10.185052276452867]
低リソース環境における臨床および生医学的な研究は、有効なモデルを構築するのに十分なサンプルサイズを持つ高品質なデータを必要とするため、しばしば課題に直面している。
これらの制約は、堅牢なモデルトレーニングを妨げ、研究者は、関連する研究から既存の知識を活用して新しい研究活動を支援する方法を模索する。
機械学習技術であるトランスファーラーニング(TL)は、事前訓練されたモデルからの知識を活用して、新しいモデルの性能を向上させることで、強力なソリューションとして現れる。
論文 参考訳(メタデータ) (2024-07-04T23:34:20Z) - SemioLLM: Assessing Large Language Models for Semiological Analysis in Epilepsy Research [45.2233252981348]
大規模言語モデルは、一般的な医学的知識をエンコードする能力において有望な結果を示している。
内科的知識を活用しててててんかんの診断を行う技術について検討した。
論文 参考訳(メタデータ) (2024-07-03T11:02:12Z) - Accelerating Clinical Evidence Synthesis with Large Language Models [28.002870749019035]
本稿では,人間とAIのコラボレーションを促進するための生成人工知能パイプラインであるTrialMindを紹介する。
TrialMindは、検索、スクリーニング、データ抽出タスクを横断的に拡張する。
人間の専門家は、GPT-4よりもTrialMindの出力を62.5%から100%のケースで好んだ。
論文 参考訳(メタデータ) (2024-06-25T17:41:52Z) - Are Large Language Models True Healthcare Jacks-of-All-Trades? Benchmarking Across Health Professions Beyond Physician Exams [32.77551245372691]
医療におけるLLM(Large Language Models)の評価のための既存のベンチマークは、主に医師に焦点を当てている。
従来の中国語における大規模医療知識ベンチマークであるEMPEC(Inspecters for Medical Personnel in Chinese)を紹介する。
EMPECは124人の被験者と20の医療専門家からなる157,803の試験質問からなる。
論文 参考訳(メタデータ) (2024-06-17T08:40:36Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case
Study in Medicine [89.46836590149883]
本研究は, GPT-4の医学的課題評価における能力について, 専門訓練の欠如による先行研究に基づくものである。
イノベーションを促進することで、より深い専門能力が解放され、GPT-4が医学ベンチマークの先行結果に容易に勝っていることが分かる。
Medpromptを使用すると、GPT-4はMultiMedQAスイートのベンチマークデータセットの9つすべてに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2023-11-28T03:16:12Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。