論文の概要: SoftTiger: A Clinical Foundation Model for Healthcare Workflows
- arxiv url: http://arxiv.org/abs/2403.00868v1
- Date: Fri, 1 Mar 2024 04:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 16:17:46.044912
- Title: SoftTiger: A Clinical Foundation Model for Healthcare Workflows
- Title(参考訳): SoftTiger:医療ワークフローのための臨床基礎モデル
- Authors: Ye Chen, Igor Couto, Wei Cai, Cong Fu, Bruno Dorneles
- Abstract要約: 医療基盤モデルとして設計された臨床用大規模言語モデル(CLaM)であるSoftTigerをリリースし紹介する。
我々は,臨床ノートを臨床データに構造化する上で重要な問題に対処する。
我々は,3つの重要なサブタスク,すなわち国際的患者要約,臨床的印象,医療的出会いのデータを収集し,注釈する。
- 参考スコア(独自算出の注目度): 5.559128550958323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We release and introduce SoftTiger, a clinical large language model (CLaM)
designed as a foundation model for healthcare workflows. The narrative and
unstructured nature of clinical notes is a major obstacle for healthcare
intelligentization. We address a critical problem of structuring clinical notes
into clinical data, according to international interoperability standards. We
collect and annotate data for three critical subtasks, namely, international
patient summary, clinical impression and medical encounter. We then supervised
fine-tuned a state-of-the-art LLM using public and credentialed clinical data.
The training is orchestrated in a way that the target model can first support
basic clinical tasks such as abbreviation expansion and temporal information
extraction, and then learn to perform more complex downstream clinical tasks
such as impression and encounter summary. Moreover, we address, several
modeling challenges in the healthcare context, e.g., extra long context window.
Our blind pairwise evaluation shows that SoftTiger outperforms other popular
open-source models and GPT-3.5, comparable to Gemini-pro, and only has a mild
gap from GPT-4. We believe that LLMs may become a step-stone towards healthcare
digitalization and democratization. Therefore, we publicly release SoftTiger
models at scales of 13 billion and 70 billion parameters, as well as datasets
and code for our innovative scalable evaluation, hopefully, making a
significant contribution to the healthcare industry.
- Abstract(参考訳): 医療ワークフローの基礎モデルとして設計された臨床用大規模言語モデル(CLaM)であるSoftTigerをリリースし紹介する。
臨床ノートの物語と非構造化の性質は、医療の知的化の大きな障害である。
我々は,国際インターオペラビリティ基準に基づき,臨床記録を臨床データに構造化するという重大な問題に対処している。
我々は,3つの重要なサブタスク,すなわち国際患者要約,臨床印象,医療的出会いのデータを収集し,注釈する。
その後,公立および認証された臨床データを用いて,最先端のLCMを微調整した。
トレーニングは、ターゲットモデルが最初に短縮拡張や時間情報抽出などの基本的な臨床タスクをサポートし、次に印象や遭遇要約といったより複雑な下流臨床タスクを実行することを学ぶように編成される。
さらに、医療コンテキストにおけるいくつかのモデリング課題、例えば、余分な長いコンテキストウィンドウに対処する。
我々の盲目的評価は、SoftTigerが他の人気のあるオープンソースモデルとGPT-3.5より優れていることを示している。
LLMは医療のデジタル化と民主化の足掛かりになるかもしれない。
ですから私たちは,130億から70億のパラメータのスケールでsofttigerモデルを公開するとともに,革新的なスケーラブルな評価のためのデータセットやコードを公開しています。
関連論文リスト
- Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Generative Large Language Models are autonomous practitioners of
evidence-based medicine [27.229179922424063]
EBM(エビデンス・ベース・メディカル)は、臨床医学の基礎であり、臨床医が継続的に知識を更新し、患者医療に最良の臨床証拠を適用する必要がある。
EBMの実践は、医学研究の急速な進歩による課題に直面し、臨床医に情報過負荷をもたらす。
人工知能(AI)の統合、特にジェネレーティブ・大型言語モデル(LLM)は、この複雑さを管理するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - Distilling Large Language Models for Matching Patients to Clinical
Trials [3.4068841624198942]
近年の大規模言語モデル(LLMs)の成功は、医療分野における彼らの採用の道を開いた。
本研究は,患者と臨床の整合性に対するプロプライエタリ (GPT-3.5, GPT-4) とオープンソース LLM (LLAMA 7B, 13B, 70B) の併用性について,最初の系統的検討を行った。
この制限された合成データセットを微調整したオープンソースのLLMは、プロプライエタリなデータセットと同等の性能を示した。
論文 参考訳(メタデータ) (2023-12-15T17:11:07Z) - Multi-Site Clinical Federated Learning using Recursive and Attentive
Models and NVFlare [13.176351544342735]
本稿では、データプライバシと規制コンプライアンスの課題に対処する統合フレームワークを開発する。
これには、データのプライバシと規制コンプライアンスの課題に対処し、高い精度を維持し、提案されたアプローチの有効性を実証する統合フレームワークの開発が含まれている。
論文 参考訳(メタデータ) (2023-06-28T17:00:32Z) - The Shaky Foundations of Clinical Foundation Models: A Survey of Large
Language Models and Foundation Models for EMRs [5.7482228499062975]
非イメージングEMRデータに基づいて訓練された80以上の基礎モデルをレビューする。
ほとんどのモデルが、小さく、狭められた臨床データセットでトレーニングされていることが分かりました。
臨床基礎モデルの利点を評価するための評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T23:54:14Z) - Do We Still Need Clinical Language Models? [15.023633270864675]
比較的小さな専門的な臨床モデルでは、コンテキスト内学習のアプローチが大幅に優れていることを示す。
physioNet Credentialed Health Dataライセンスとデータ使用契約の下で使用されるコードとモデルをリリースします。
論文 参考訳(メタデータ) (2023-02-16T05:08:34Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - ICDBigBird: A Contextual Embedding Model for ICD Code Classification [71.58299917476195]
文脈単語埋め込みモデルは、複数のNLPタスクにおいて最先端の結果を得た。
ICDBigBirdは、Graph Convolutional Network(GCN)を統合するBigBirdベースのモデルである。
ICD分類作業におけるBigBirdモデルの有効性を実世界の臨床データセットで実証した。
論文 参考訳(メタデータ) (2022-04-21T20:59:56Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z) - Benchmarking Automated Clinical Language Simplification: Dataset,
Algorithm, and Evaluation [48.87254340298189]
我々はMedLaneという名の新しいデータセットを構築し、自動化された臨床言語簡易化手法の開発と評価を支援する。
我々は,人間のアノテーションの手順に従い,最先端のパフォーマンスを実現するDECLAREと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-04T06:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。