論文の概要: CliniChat: A Multi-Source Knowledge-Driven Framework for Clinical Interview Dialogue Reconstruction and Evaluation
- arxiv url: http://arxiv.org/abs/2504.10418v1
- Date: Mon, 14 Apr 2025 17:06:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:47.513313
- Title: CliniChat: A Multi-Source Knowledge-Driven Framework for Clinical Interview Dialogue Reconstruction and Evaluation
- Title(参考訳): CliniChat: 臨床インタビュー対話の再構築と評価のための多ソース知識駆動フレームワーク
- Authors: Jing Chen, Zhihua Wei, Wei Zhang, Yingying Hu, Qiong Zhang,
- Abstract要約: 我々はCliniChatを提案する。CliniChatは、マルチソース知識を統合して、大規模言語モデルを用いて実世界の臨床面接をシミュレートするフレームワークである。
Clini-ReconとClini-Evalの2つのモジュールがインタビュー対話の再構築と評価を担当している。
我々は,高品質な合成インタビュー対話データセットであるMedQA-Dialogと臨床面接に特化したモデルであるCliniChatGLMに貢献する。
- 参考スコア(独自算出の注目度): 20.64206737886915
- License:
- Abstract: Large language models (LLMs) hold great promise for assisting clinical interviews due to their fluent interactive capabilities and extensive medical knowledge. However, the lack of high-quality interview dialogue data and widely accepted evaluation methods has significantly impeded this process. So we propose CliniChat, a framework that integrates multi-source knowledge to enable LLMs to simulate real-world clinical interviews. It consists of two modules: Clini-Recon and Clini-Eval, each responsible for reconstructing and evaluating interview dialogues, respectively. By incorporating three sources of knowledge, Clini-Recon transforms clinical notes into systematic, professional, and empathetic interview dialogues. Clini-Eval combines a comprehensive evaluation metric system with a two-phase automatic evaluation approach, enabling LLMs to assess interview performance like experts. We contribute MedQA-Dialog, a high-quality synthetic interview dialogue dataset, and CliniChatGLM, a model specialized for clinical interviews. Experimental results demonstrate that CliniChatGLM's interview capabilities undergo a comprehensive upgrade, particularly in history-taking, achieving state-of-the-art performance.
- Abstract(参考訳): 大規模言語モデル(LLM)は、流動的な対話能力と広範な医学的知識のために、臨床面接を支援することを大いに約束している。
しかし,高品質なインタビュー対話データや広く受け入れられている評価手法が欠如しているため,このプロセスは著しく阻害されている。
そこで我々は,LLMが実世界の臨床面接をシミュレートできるように,マルチソース知識を統合したフレームワークであるCliniChatを提案する。
Clini-ReconとClini-Evalの2つのモジュールで構成される。
クリニ・レコンは3つの知識源を取り入れることで、臨床メモを体系的、専門的、共感的な面接対話に変換する。
Clini-Evalは、総合的な評価基準システムと2段階の自動評価アプローチを組み合わせることで、LLMが専門家のようなインタビューパフォーマンスを評価することができる。
我々は,高品質な合成インタビュー対話データセットであるMedQA-Dialogと臨床面接に特化したモデルであるCliniChatGLMに貢献する。
実験結果から,CliniChatGLMの面接能力は,特に履歴収集において,最先端の性能を達成するために,包括的なアップグレードが行われていることが示唆された。
関連論文リスト
- GuideLLM: Exploring LLM-Guided Conversation with Applications in Autobiography Interviewing [73.8469700907927]
大規模言語モデル(LLM)は、指示の追従や質問応答といった人間の指導による会話に成功している。
本研究では, LLM誘導会話を, ゴールナビゲーション, (ii) コンテキストマネジメント, (iii) 共感エンゲージメントの3つの基本要素に分類した。
GPT-4o や Llama-3-70b-Instruct のような6つの最先端 LLM と比較し, 面接品質, 自伝生成品質の観点から検討した。
論文 参考訳(メタデータ) (2025-02-10T14:11:32Z) - Dialogue is Better Than Monologue: Instructing Medical LLMs via Strategical Conversations [74.83732294523402]
実世界の診断シナリオをシミュレートし,USMLE標準に適合するノイズと難易度を統合する新しいベンチマークを導入する。
また、対話に基づく微調整についても検討し、静的データセットを会話形式に変換し、反復的推論プロセスをよりよく捉える。
実験の結果、対話調整されたモデルは従来の手法よりも優れており、マルチラウンド推論のシナリオでは9.64%、ノイズの多い環境では6.18%の精度で改善されている。
論文 参考訳(メタデータ) (2025-01-29T18:58:48Z) - CLINICSUM: Utilizing Language Models for Generating Clinical Summaries from Patient-Doctor Conversations [2.77462589810782]
クリニックサムは、患者と医師の会話から臨床要約を自動的に生成するように設計されたフレームワークである。
自動測定(ROUGE、BERTScoreなど)と専門家による評価によって評価される。
論文 参考訳(メタデータ) (2024-12-05T15:34:02Z) - AI Conversational Interviewing: Transforming Surveys with LLMs as Adaptive Interviewers [40.80290002598963]
本研究では,人間のインタビュアーを大規模言語モデル (LLM) に置き換えて,スケーラブルな対話型インタビュアーを実現する可能性について検討する。
大学生を対象に,AIやヒューマンインタビュアーによる会話面接にランダムに割り当てられた,小規模かつ詳細な調査を行った。
様々な量的・質的な尺度は, インタビュアーのガイドライン, 応答品質, 参加者参加率, 総合的な面接効果に順応した。
論文 参考訳(メタデータ) (2024-09-16T16:03:08Z) - Large Language Models in the Clinic: A Comprehensive Benchmark [63.21278434331952]
診療所の大規模言語モデル(LLM)をよりよく理解するためのベンチマークであるClimateBenchを構築した。
まず、さまざまな臨床言語の生成、理解、推論タスクを含む11の既存のデータセットを収集します。
次に,現実の実践において複雑だが一般的である6つの新しいデータセットと臨床タスクを構築した。
ゼロショット設定と少数ショット設定の両方で、20個のLDMを広範囲に評価する。
論文 参考訳(メタデータ) (2024-04-25T15:51:06Z) - NoteChat: A Dataset of Synthetic Doctor-Patient Conversations Conditioned on Clinical Notes [17.293865946903217]
NoteChatは、Large Language Models (LLMs)を活用して、患者と物理学者の対話を生成する新しい協調型マルチエージェントフレームワークである。
NoteChatは、臨床ノートに基づいた優れた合成患者と物理学の対話を生成する際に、ドメインの専門家によって、ChatGPTやGPT-4のような最先端のモデルを22.78%まで大幅に上回っている。
論文 参考訳(メタデータ) (2023-10-24T15:59:43Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - PlugMed: Improving Specificity in Patient-Centered Medical Dialogue
Generation using In-Context Learning [20.437165038293426]
患者中心の医療対話システムは、医療知識に乏しいユーザーに診断解釈サービスを提供しようとしている。
大きな言語モデル(LLM)では、期待できる性能にもかかわらず応答の特異性を保証することは困難である。
In-context Learning に触発されて,プラグイン・アンド・プレイ医療対話システム PlugMed を提案する。
論文 参考訳(メタデータ) (2023-05-19T08:18:24Z) - FCC: Fusing Conversation History and Candidate Provenance for Contextual
Response Ranking in Dialogue Systems [53.89014188309486]
複数のチャネルからコンテキスト情報を統合できるフレキシブルなニューラルネットワークフレームワークを提案する。
会話応答ランキングタスクの評価に広く用いられているMSDialogデータセット上で,本モデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-31T23:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。