論文の概要: GPT-doctor: Customizing Large Language Models for Medical Consultation
- arxiv url: http://arxiv.org/abs/2312.10225v1
- Date: Fri, 15 Dec 2023 21:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 17:47:35.695245
- Title: GPT-doctor: Customizing Large Language Models for Medical Consultation
- Title(参考訳): GPT-doctor:医療相談のための大規模言語モデルのカスタマイズ
- Authors: Wen Wang, Zhenyue Zhao, Tianshu Sun
- Abstract要約: 本稿では,Large Language Models (LLM) を一般的なビジネスコンテキストにカスタマイズするための新しいフレームワークを提案する。
LLMにおけるドメイン固有理論とスーパービジョンファインチューニング(SFT)を組み合わせる手法を設計する。
提案するフレームワークを医療相談の文脈でインスタンス化し,GPT-doctorモデルを作成する。
- 参考スコア(独自算出の注目度): 5.532457801941222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of Large Language Models (LLMs) has ushered in a new era for
design science in Information Systems, demanding a paradigm shift in tailoring
LLMs design for business contexts. This paper proposes a novel framework to
customize LLMs for general business contexts that aims to achieve three
fundamental objectives simultaneously: (1) aligning conversational patterns,
(2) integrating in-depth domain knowledge, and (3) embodying the soft skills
and core principles. We design methodologies to combine domain-specific theory
with Supervised Fine Tuning (SFT) in LLMs. We instantiate our proposed
framework in the context of medical consultation, creating a GPT-doctor model.
Specifically, we construct a comprehensive dataset for SFT by collecting large
volume of real doctors consultation records from a leading online medical
consultation platform and medical knowledge from professional databases.
Additionally, drawing on medical theory, we identify three soft skills and core
principles of human doctors including professionalism, explainability, and
emotional support, and design approaches to integrate these skills into LLMs.
We demonstrate the feasibility and performance of our proposed framework using
online experiments with real patients as well as evaluation by domain experts
and real consumers. Results demonstrate that fine-tuned GPT-doctor performs on
par with human doctors across multiple metrics including medical expertise and
consumer preference. Finally, we unravel the black box and examine the sources
of model performance improvement from the perspectives of horizontal
conversation pattern alignment and vertical medical knowledge evolution. Our
proposed framework offers step-by-step principles and guidance for customizing
LLMs for real-world business problems.
- Abstract(参考訳): 大規模言語モデル(llms)の出現は、情報システムにおける設計科学の新しい時代を告げ、llms設計をビジネスコンテキストに合わせるためのパラダイムシフトを要求した。
本稿では,(1)会話パターンの整合,(2)深いドメイン知識の統合,(3)ソフトスキルとコア原則の具体化という3つの基本目標を同時に達成することを目的とした,一般的なビジネスコンテキストのllmをカスタマイズするための新しい枠組みを提案する。
LLMにおけるドメイン固有理論とスーパービジョンファインチューニング(SFT)を組み合わせる手法を設計する。
提案するフレームワークを医療相談の文脈でインスタンス化し,GPT-doctorモデルを作成する。
具体的には、主要なオンライン医療相談プラットフォームから大量の医師相談記録を収集し、専門データベースから医療知識を収集し、SFTのための包括的なデータセットを構築する。
さらに, 医療理論に基づいて, 専門性, 説明可能性, 情緒的支援を含む, 人間の医師のソフトスキルとコア原則を3つ同定し, これらのスキルをLCMに組み込む設計アプローチを提案する。
本研究は,実患者に対するオンライン実験とドメインエキスパートおよび実消費者による評価を用いて,提案フレームワークの実現可能性と性能を示す。
その結果、gpt-doctorは、医療の専門知識や消費者の嗜好など、複数の指標にわたる人間の医師と同等の性能を発揮することがわかった。
最後に,ブラックボックスを探索し,水平的会話パターンアライメントと垂直的医療知識の進化の観点からモデル性能改善の源泉を検討する。
提案するフレームワークは、現実のビジネス問題に対してLCMをカスタマイズするためのステップバイステップの原則とガイダンスを提供する。
関連論文リスト
- Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - CLIPSyntel: CLIP and LLM Synergy for Multimodal Question Summarization
in Healthcare [16.033112094191395]
MMQS(Multimodal Medical Question Summarization)データセットを紹介する。
このデータセットは、医用クエリと視覚補助とを組み合わせ、患者のニーズに対するより豊かでニュアンスな理解を促進する。
また、医学的障害を識別し、関連するコンテキストを生成し、医療概念をフィルタリングし、視覚的に認識された要約を作成する4つのモジュールからなるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-16T03:02:05Z) - From Beginner to Expert: Modeling Medical Knowledge into General LLMs [22.475129648458136]
大規模言語モデル(LLM)に基づく人工知能(AI)システムは、自然言語の理解と生成において顕著な能力を示した。
これらのモデルは、医学的な知識を推論したり、医師のような方法で医学的な疑問に答えたりするといった、繊細な応用に関して重要な課題に直面している。
本研究は、事前訓練された一般LLMモデル(AntGLM-10B)から始まり、医療初心者から医療専門家(AntGLM-Med-10B)に微調整する。
論文 参考訳(メタデータ) (2023-12-02T05:54:06Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training
Regime and Better Alignment to Human Preferences [55.42521181558716]
中国医学領域向けに設計された新しいベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、コンテキスト長を4,096トークンに拡大し、事前トレーニング、SFT、RLHFを含む総合的なトレーニング体制を実行している。
情報抽出,質問応答,対話生成などの実世界のタスクの評価は,一般的なドメインLLMよりもChiMed-GPTの方が優れた性能を示している。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - A Survey of Large Language Models in Medicine: Progress, Application,
and Challenge [86.4234483148876]
大規模言語モデル (LLM) は、人間の言語を理解し、生成する能力のために大きな注目を集めている。
本総説は,医学におけるLSMの開発と展開について概説することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T02:55:58Z) - Large Language Models Illuminate a Progressive Pathway to Artificial
Healthcare Assistant: A Review [16.008511195589925]
大規模言語モデル(LLM)は、人間のレベルの言語理解と推論を模倣する有望な能力を示している。
本稿では,医学におけるLSMの応用と意義について概説する。
論文 参考訳(メタデータ) (2023-11-03T13:51:36Z) - A Survey of Large Language Models for Healthcare: from Data, Technology,
and Applications to Accountability and Ethics [33.71952776775613]
Healthcareドメインの大規模言語モデル(LLM)は、フリーテキストクエリに効果的に応答できるため、興奮と懸念の両方を引き起こしている。
本調査では、現在開発中のLLMs for Healthcareの能力について概説し、開発プロセスについて解説する。
論文 参考訳(メタデータ) (2023-10-09T13:15:23Z) - DISC-MedLLM: Bridging General Large Language Models and Real-World
Medical Consultation [37.08249140671163]
我々は、エンドツーエンドの医療サービスにおいて、正確で真正な医療応答を提供するために、disC-MedLLMを提案する。
我々は,医用知識グラフの利用,現実世界の対話の再構築,人手による嗜好表現の導入という3つの戦略を採用している。
論文 参考訳(メタデータ) (2023-08-28T06:41:49Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Align, Reason and Learn: Enhancing Medical Vision-and-Language
Pre-training with Knowledge [68.90835997085557]
本稿では,3つの視点から構造化された医療知識を高めるための体系的かつ効果的なアプローチを提案する。
まず、視覚エンコーダと言語エンコーダの表現を知識を通して整列する。
次に,多モード融合モデルに知識を注入し,入力画像とテキストの補足として知識を用いた推論を可能にする。
第3に、知識によって引き起こされるプレテキストタスクを設計することで、画像やテキストの最も重要な情報に重点を置くよう、モデルを指導する。
論文 参考訳(メタデータ) (2022-09-15T08:00:01Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。