論文の概要: Integrating Physician Diagnostic Logic into Large Language Models: Preference Learning from Process Feedback
- arxiv url: http://arxiv.org/abs/2401.05695v2
- Date: Sat, 3 Aug 2024 01:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 23:55:54.555523
- Title: Integrating Physician Diagnostic Logic into Large Language Models: Preference Learning from Process Feedback
- Title(参考訳): 物理診断論理を大規模言語モデルに統合する:プロセスフィードバックからの選好学習
- Authors: Chengfeng Dou, Zhi Jin, Wenpin Jiao, Haiyan Zhao, Yongqiang Zhao, Zhenwei Tao,
- Abstract要約: プロセスフィードバックから選好学習というアプローチを提案する。
PLPFは医師の診断ロジックをLSMに統合する。
PLPFは医療会話におけるベースラインモデルの診断精度を17.6%向上させる。
- 参考スコア(独自算出の注目度): 19.564416963801268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of large language models in medical dialogue generation has garnered significant attention, with a focus on improving response quality and fluency. While previous studies have made progress in optimizing model performance for single-round medical Q&A tasks, there is a need to enhance the model's capability for multi-round conversations to avoid logical inconsistencies. To address this, we propose an approach called preference learning from process feedback~(PLPF), which integrates the doctor's diagnostic logic into LLMs. PLPF involves rule modeling, preference data generation, and preference alignment to train the model to adhere to the diagnostic process. Experimental results using Standardized Patient Testing show that PLPF enhances the diagnostic accuracy of the baseline model in medical conversations by 17.6%, outperforming traditional reinforcement learning from human feedback. Additionally, PLPF demonstrates effectiveness in both multi-round and single-round dialogue tasks, showcasing its potential for improving medical dialogue generation.
- Abstract(参考訳): 医療対話生成における大規模言語モデルの使用は、応答品質と流布性の改善に焦点が当てられ、大きな注目を集めている。
これまでの研究では,シングルラウンド医療Q&Aタスクにおけるモデル性能の最適化が進んでいるが,論理的不整合を回避するために,マルチラウンド会話におけるモデルの能力を高める必要がある。
そこで本研究では,医師の診断ロジックをLCMに組み込む,プロセスフィードバックからの選好学習(PLPF)アプローチを提案する。
PLPFは、ルールモデリング、嗜好データ生成、そして、診断プロセスに準拠するようにモデルをトレーニングするための嗜好アライメントを含む。
標準化された患者試験を用いた実験の結果、PLPFは医療会話におけるベースラインモデルの診断精度を17.6%向上させ、人間のフィードバックから従来の強化学習よりも優れていた。
さらに、PLPFは、多ラウンド・単ラウンドの対話タスクにおいて効果を示し、医療対話生成の改善の可能性を示している。
関連論文リスト
- Exploring LLM-based Data Annotation Strategies for Medical Dialogue Preference Alignment [22.983780823136925]
本研究は、医療対話モデルを改善するために、AIフィードバック(RLAIF)技術を用いた強化学習(Reinforcement Learning)について検討する。
医療におけるRLAIF研究の主な課題は、自動評価手法の限界である。
標準化された患者診査に基づく新しい評価枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-05T10:29:19Z) - RuleAlign: Making Large Language Models Better Physicians with Diagnostic Rule Alignment [54.91736546490813]
本稿では,大規模言語モデルと特定の診断規則との整合性を考慮したルールアラインフレームワークを提案する。
患者と医師間の規則に基づくコミュニケーションを含む医療対話データセットを開発した。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-22T17:44:40Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - PlugMed: Improving Specificity in Patient-Centered Medical Dialogue
Generation using In-Context Learning [20.437165038293426]
患者中心の医療対話システムは、医療知識に乏しいユーザーに診断解釈サービスを提供しようとしている。
大きな言語モデル(LLM)では、期待できる性能にもかかわらず応答の特異性を保証することは困難である。
In-context Learning に触発されて,プラグイン・アンド・プレイ医療対話システム PlugMed を提案する。
論文 参考訳(メタデータ) (2023-05-19T08:18:24Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - DR.BENCH: Diagnostic Reasoning Benchmark for Clinical Natural Language
Processing [5.022185333260402]
診断推論ベンチマーク(DR.BENCH)は臨床診断推論能力を持つcNLPモデルの開発と評価のための新しいベンチマークである。
DR.BENCHは、訓練済みの言語モデルを評価するための自然言語生成フレームワークとして設計された最初の臨床スイートである。
論文 参考訳(メタデータ) (2022-09-29T16:05:53Z) - An Evaluation of Generative Pre-Training Model-based Therapy Chatbot for
Caregivers [5.2116528363639985]
OpenAI GPTモデルのような生成ベースのアプローチは、治療コンテキストにおけるよりダイナミックな会話を可能にする。
我々は, GPT-2モデルを用いてチャットボットを構築し, 認知症患者の家族介護者と問題解決療法を行うセラピストの間で306回の治療セッションの転写を微調整した。
その結果、微調整されたモデルでは、事前訓練されたモデルよりも単語以外の出力が生成されることがわかった。
論文 参考訳(メタデータ) (2021-07-28T01:01:08Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。