論文の概要: Dialogue is Better Than Monologue: Instructing Medical LLMs via Strategical Conversations
- arxiv url: http://arxiv.org/abs/2501.17860v1
- Date: Wed, 29 Jan 2025 18:58:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:45.288488
- Title: Dialogue is Better Than Monologue: Instructing Medical LLMs via Strategical Conversations
- Title(参考訳): 対話はモノローグより優れている:戦略的会話を通して医学的LLMを教える
- Authors: Zijie Liu, Xinyu Zhao, Jie Peng, Zhuangdi Zhu, Qingyu Chen, Xia Hu, Tianlong Chen,
- Abstract要約: 実世界の診断シナリオをシミュレートし,USMLE標準に適合するノイズと難易度を統合する新しいベンチマークを導入する。
また、対話に基づく微調整についても検討し、静的データセットを会話形式に変換し、反復的推論プロセスをよりよく捉える。
実験の結果、対話調整されたモデルは従来の手法よりも優れており、マルチラウンド推論のシナリオでは9.64%、ノイズの多い環境では6.18%の精度で改善されている。
- 参考スコア(独自算出の注目度): 74.83732294523402
- License:
- Abstract: Current medical AI systems often fail to replicate real-world clinical reasoning, as they are predominantly trained and evaluated on static text and question-answer tasks. These tuning methods and benchmarks overlook critical aspects like evidence-based reasoning and handling distracting information. To bridge this gap, we introduce a novel benchmark that simulates real-world diagnostic scenarios, integrating noise and difficulty levels aligned with USMLE standards. Moreover, we explore dialogue-based fine-tuning, which transforms static datasets into conversational formats to better capture iterative reasoning processes. Experiments show that dialogue-tuned models outperform traditional methods, with improvements of $9.64\%$ in multi-round reasoning scenarios and $6.18\%$ in accuracy in a noisy environment. Our findings highlight dialogue tuning as a promising approach for advancing clinically aligned and robust medical AI systems.
- Abstract(参考訳): 現在の医療AIシステムは、静的テキストや質問応答タスクに基づいて主に訓練され、評価されるため、現実の臨床推論を再現できないことが多い。
これらのチューニング方法とベンチマークは、エビデンスベースの推論や邪魔な情報を扱うといった重要な側面を見落としている。
このギャップを埋めるために,実世界の診断シナリオをシミュレートする新しいベンチマークを導入し,USMLE標準に適合するノイズと難易度を統合する。
さらに,静的データセットを対話型形式に変換し,反復的推論プロセスをよりよく捉える対話型微調整についても検討する。
実験の結果、対話調整されたモデルは従来の手法よりも優れており、マルチラウンド推論シナリオでは9.64 %、ノイズの多い環境では6.18 % の精度で改善されている。
本研究は,臨床に整合し,堅牢な医療AIシステムを実現するための,対話型チューニングを有望なアプローチとして取り上げる。
関連論文リスト
- MORTAR: Metamorphic Multi-turn Testing for LLM-based Dialogue Systems [7.7097144952707435]
メタモルフィックなマルチTuRnダイアローグテストアプリMORTARを提案する。
MorTARは、フォローアップ質問応答(QA)ダイアログテストケースの生成を自動化する。
低コストでマルチターン対話システムのバグを検出する。
論文 参考訳(メタデータ) (2024-12-20T04:31:03Z) - MEDSAGE: Enhancing Robustness of Medical Dialogue Summarization to ASR Errors with LLM-generated Synthetic Dialogues [41.23757609484281]
音声認識エラーは、要約のような下流タスクのパフォーマンスを著しく低下させる可能性がある。
大規模言語モデルを用いたデータ拡張のための合成サンプル生成手法であるMEDSAGEを提案する。
LLMは、ASRノイズを効果的にモデル化することができ、このノイズデータをトレーニングプロセスに組み込むことで、医用対話要約システムの堅牢性と精度が大幅に向上する。
論文 参考訳(メタデータ) (2024-08-26T17:04:00Z) - Synthetic Patient-Physician Dialogue Generation from Clinical Notes Using LLM [27.33193944412666]
医療対話システム(MDS)は、患者と医師のコミュニケーションを強化し、医療のアクセシビリティを改善し、コストを削減する。
しかし、これらのシステムの訓練に適したデータを取得することは大きな課題である。
我々のアプローチであるSynDialは、ゼロショットプロンプトとフィードバックループを備えた単一のLLMを反復的に使用し、高品質な合成対話を生成する。
論文 参考訳(メタデータ) (2024-08-12T16:49:22Z) - Reasoning Like a Doctor: Improving Medical Dialogue Systems via Diagnostic Reasoning Process Alignment [14.563188427409958]
本研究の目的は,臨床医の診断推論プロセスと整合した医療対話システムの構築である。
適切な応答を生成するために設計された新しいフレームワークであるエミュレーションを提案する。
当社の枠組みは, 医療相談における透明性の向上を図り, 反応の明確な説明を提供する。
論文 参考訳(メタデータ) (2024-06-20T02:02:53Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Integrating Physician Diagnostic Logic into Large Language Models: Preference Learning from Process Feedback [19.564416963801268]
プロセスフィードバックから選好学習というアプローチを提案する。
PLPFは医師の診断ロジックをLSMに統合する。
PLPFは医療会話におけるベースラインモデルの診断精度を17.6%向上させる。
論文 参考訳(メタデータ) (2024-01-11T06:42:45Z) - Show from Tell: Audio-Visual Modelling in Clinical Settings [58.88175583465277]
臨床環境でのオーディオ・ビジュアル・モデリングを考察し、人間の専門的アノテーションを使わずに医学的表現を学習するためのソリューションを提供する。
この目的のために, 単純かつ効果的なマルチモーダル自己教師型学習フレームワークを提案する。
提案手法は,音声のみを基準として,超音波画像中の解剖学的関心領域をローカライズすることができる。
論文 参考訳(メタデータ) (2023-10-25T08:55:48Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。