論文の概要: A Role-specific Guided Large Language Model for Ophthalmic Consultation Based on Stylistic Differentiation
- arxiv url: http://arxiv.org/abs/2407.18483v3
- Date: Tue, 30 Jul 2024 12:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 12:29:44.498510
- Title: A Role-specific Guided Large Language Model for Ophthalmic Consultation Based on Stylistic Differentiation
- Title(参考訳): 立体差分に基づく眼科相談における役割特化指導型大言語モデル
- Authors: Laiyi Fu, Binbin Fan, Hongkai Du, Yanxiang Feng, Chunhua Li, Huping Song,
- Abstract要約: 本研究では,眼科における大規模言語モデルであるEyeDoctorを提案する。
眼科相談においてEyeDoctorはより高い質問応答精度を達成できることを示す実験結果を得た。
- 参考スコア(独自算出の注目度): 2.0671213754662343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ophthalmology consultations are crucial for diagnosing, treating, and preventing eye diseases. However, the growing demand for consultations exceeds the availability of ophthalmologists. By leveraging large pre-trained language models, we can design effective dialogues for specific scenarios, aiding in consultations. Traditional fine-tuning strategies for question-answering tasks are impractical due to increasing model size and often ignoring patient-doctor role function during consultations. In this paper, we propose EyeDoctor, an ophthalmic medical questioning large language model that enhances accuracy through doctor-patient role perception guided and an augmented knowledge base with external disease information. Experimental results show EyeDoctor achieves higher question-answering precision in ophthalmology consultations. Notably, EyeDoctor demonstrated a 7.25% improvement in Rouge-1 scores and a 10.16% improvement in F1 scores on multi-round datasets compared to second best model ChatGPT, highlighting the importance of doctor-patient role differentiation and dynamic knowledge base expansion for intelligent medical consultations. EyeDoc also serves as a free available web based service and souce code is available at https://github.com/sperfu/EyeDoc.
- Abstract(参考訳): 眼科相談は、眼疾患の診断、治療、予防に不可欠である。
しかし、コンサルテーションの需要は眼科医以上のものになっている。
事前訓練された大規模な言語モデルを活用することで、特定のシナリオに対する効果的な対話を設計し、相談を支援することができる。
従来の質問応答タスクの微調整戦略は、モデルのサイズが大きくなることと、コンサルテーション中に患者・医師の役割を無視することがしばしばあるため、現実的ではない。
本稿では,医師の役割認識をガイドした眼科医療問合せ大言語モデルであるEyeDoctorと,外部疾患情報を用いた知識ベースを提案する。
眼科相談においてEyeDoctorはより高い質問応答精度を達成できることを示す実験結果を得た。
特に、EyeDoctorは第2のベストモデルであるChatGPTと比較してルージュ-1スコアが7.25%改善し、F1スコアが10.16%改善した。
EyeDocは無料のWebベースサービスとしても機能し、souceコードはhttps://github.com/sperfu/EyeDoc.comで入手できる。
関連論文リスト
- Visual Question Answering in Ophthalmology: A Progressive and Practical Perspective [3.362457692154382]
VQA(Visual Question Answering)は、コンピュータビジョンと自然言語処理を組み合わせて、医療画像に関するクエリを理解し、応答する。
本稿では, 眼科領域におけるVQAの進歩と今後の展望について, 理論的, 実用的両面から考察する。
論文 参考訳(メタデータ) (2024-10-22T03:28:41Z) - RuleAlign: Making Large Language Models Better Physicians with Diagnostic Rule Alignment [54.91736546490813]
本稿では,大規模言語モデルと特定の診断規則との整合性を考慮したルールアラインフレームワークを提案する。
患者と医師間の規則に基づくコミュニケーションを含む医療対話データセットを開発した。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-22T17:44:40Z) - VisionUnite: A Vision-Language Foundation Model for Ophthalmology Enhanced with Clinical Knowledge [26.93106207758859]
臨床知識によって強化された眼科の新しい視覚言語基盤モデルであるVisionUniteを紹介する。
VisionUniteは、124万の画像テキストペアからなる広範囲なデータセットで事前訓練されている。
実験の結果,VisionUnite は GPT-4V や Gemini Pro などの既存の生成基盤モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-05T23:31:07Z) - EyeGPT: Ophthalmic Assistant with Large Language Models [6.678252895718266]
一般世界の知識で訓練された大規模言語モデル(LLM)は、専門家レベルで医療関連タスクに取り組む能力を持っていないかもしれない。
本稿では、ロールプレイング、ファインタニング、検索強化生成を含む3つの最適化戦略を用いて、眼科に特化して設計された特殊なLCMであるEyeGPTを紹介する。
異なるEyeGPT変異体の性能を評価することにより、人間の眼科医に対する理解可能性、信頼性、共感のレベルに匹敵する、最も効果的なものを特定する。
論文 参考訳(メタデータ) (2024-02-29T09:35:41Z) - OphGLM: Training an Ophthalmology Large Language-and-Vision Assistant
based on Instructions and Dialogue [7.140551103766788]
我々は、眼科大言語と視覚アシスタント(OphGLM)を完成させるために、大きな言語モデルに視覚能力を導入する。
実験の結果,OphGLMモデルは非常によく機能し,眼科における臨床応用に革命をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-21T11:09:48Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - A Benchmark for Automatic Medical Consultation System: Frameworks, Tasks
and Datasets [70.32630628211803]
本稿では,医師と患者との対話理解とタスク指向インタラクションという,医療相談の自動化を支援する2つの枠組みを提案する。
マルチレベルな微粒なアノテーションを付加した新しい大規模医療対話データセットが導入された。
本稿では,各タスクに対するベンチマーク結果のセットを報告し,データセットのユーザビリティを示し,今後の研究のベースラインを設定する。
論文 参考訳(メタデータ) (2022-04-19T16:43:21Z) - Doctor Recommendation in Online Health Forums via Expertise Learning [12.264865055778388]
本稿では,患者を専門知識を持つ医師に自動ペア化するための,医師推薦の新たな課題について検討する。
本研究は, 他患者とのプロフィールと過去の対話の併用効果について検討し, 自己学習による対話を探求するものである。
実験のためには、中国のオンライン健康フォーラムであるChunyu Yishengから大規模なデータセットが収集されている。
論文 参考訳(メタデータ) (2022-03-06T10:39:48Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。