論文の概要: ProAI: Proactive Multi-Agent Conversational AI with Structured Knowledge Base for Psychiatric Diagnosis
- arxiv url: http://arxiv.org/abs/2502.20689v1
- Date: Fri, 28 Feb 2025 03:45:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:43:57.706312
- Title: ProAI: Proactive Multi-Agent Conversational AI with Structured Knowledge Base for Psychiatric Diagnosis
- Title(参考訳): ProAI:精神科診断のための構造化知識ベースを用いた多言語対話型AI
- Authors: Yuqi Wu, Guangya Wan, Jingjing Li, Shengming Zhao, Lingfeng Ma, Tianyi Ye, Ion Pop, Yanbo Zhang, Jie Chen,
- Abstract要約: ほとんどの会話型AIシステムは、対話を導くことなく、ユーザーのプロンプトに反応して反応する。
目標指向でプロアクティブな会話型AIフレームワークであるProAIを紹介する。
精神障害の鑑別診断におけるProAIの精度は83.3%である。
- 参考スコア(独自算出の注目度): 10.8749978349074
- License:
- Abstract: Most LLM-driven conversational AI systems operate reactively, responding to user prompts without guiding the interaction. Most LLM-driven conversational AI systems operate reactively, responding to user prompts without guiding the interaction. However, many real-world applications-such as psychiatric diagnosis, consulting, and interviews-require AI to take a proactive role, asking the right questions and steering conversations toward specific objectives. Using mental health differential diagnosis as an application context, we introduce ProAI, a goal-oriented, proactive conversational AI framework. ProAI integrates structured knowledge-guided memory, multi-agent proactive reasoning, and a multi-faceted evaluation strategy, enabling LLMs to engage in clinician-style diagnostic reasoning rather than simple response generation. Through simulated patient interactions, user experience assessment, and professional clinical validation, we demonstrate that ProAI achieves up to 83.3% accuracy in mental disorder differential diagnosis while maintaining professional and empathetic interaction standards. These results highlight the potential for more reliable, adaptive, and goal-driven AI diagnostic assistants, advancing LLMs beyond reactive dialogue systems.
- Abstract(参考訳): ほとんどのLLM駆動の会話型AIシステムは、対話を導くことなく、ユーザーのプロンプトに反応して反応する。
ほとんどのLLM駆動の会話型AIシステムは、対話を導くことなく、ユーザーのプロンプトに反応して反応する。
しかし、精神医学的診断、コンサルティング、面接のような現実世界の多くの応用は、AIが積極的な役割を果たし、適切な質問をし、特定の目的に向けて会話を操る。
メンタルヘルスの差分診断を応用コンテキストとして,目標指向の対話型AIフレームワークであるProAIを導入する。
ProAIは構造化知識誘導メモリ、マルチエージェント・プロアクティブ推論、多面的評価戦略を統合しており、単純な応答生成ではなく、臨床医的な診断的推論を行えるようにしている。
患者とのシミュレート,ユーザエクスペリエンス評価,臨床検証を通じて,ProAIは,専門的および共感的相互作用標準を維持しつつ,精神障害の鑑別診断において最大83.3%の精度を達成できることを実証した。
これらの結果は、より信頼性が高く、適応的で、目標駆動型AI診断アシスタントの可能性を強調し、LLMをリアクティブ対話システムを超えて前進させる。
関連論文リスト
- ProMRVL-CAD: Proactive Dialogue System with Multi-Round Vision-Language Interactions for Computer-Aided Diagnosis [0.7430974817507225]
コンピュータ支援診断(ProMRVL-CAD)のためのLLMベースの対話システム、すなわちプロアクティブな多ラウンド視覚言語インタラクションを開発する。
提案した ProMRVL-CAD システムでは,患者に対して,知識グラフをレコメンデーションシステムに統合することにより,一定の医療アクセスを提供することができる。
論文 参考訳(メタデータ) (2025-02-15T01:14:23Z) - Dialogue is Better Than Monologue: Instructing Medical LLMs via Strategical Conversations [74.83732294523402]
実世界の診断シナリオをシミュレートし,USMLE標準に適合するノイズと難易度を統合する新しいベンチマークを導入する。
また、対話に基づく微調整についても検討し、静的データセットを会話形式に変換し、反復的推論プロセスをよりよく捉える。
実験の結果、対話調整されたモデルは従来の手法よりも優れており、マルチラウンド推論のシナリオでは9.64%、ノイズの多い環境では6.18%の精度で改善されている。
論文 参考訳(メタデータ) (2025-01-29T18:58:48Z) - Script-Based Dialog Policy Planning for LLM-Powered Conversational Agents: A Basic Architecture for an "AI Therapist" [0.0]
大規模言語モデル(LLM)による会話エージェントは,行動医療の大規模サポートをユーザに提供する可能性を秘めている。
対話型エージェントにおける対話型ポリシー計画のための新しいパラダイムを導入し、専門家が書いた「スクリプト」に従って行動できるようにする。
我々は,異なるプロンプト技術を用いてスクリプトベースの対話ポリシー計画法を2種類実装し,LLM患者との合計100の会話を合成する。
論文 参考訳(メタデータ) (2024-12-13T12:12:47Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Depression Diagnosis Dialogue Simulation: Self-improving Psychiatrist with Tertiary Memory [35.41386783586689]
本稿では,患者と精神科医の対話を模擬してうつ病診断を促進する自己改善型会話エージェントシステムであるエージェント・メンタル・クリニック(AMC)を紹介する。
本稿では,3次記憶構造,対話制御,およびメモリサンプリングモジュールから構成される精神科医エージェントを設計し,精神科医エージェントが反映するスキルを十分に活用し,抑うつリスクと自殺リスク診断の会話による高精度化を実現する。
論文 参考訳(メタデータ) (2024-09-20T14:25:08Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Chain-of-Interaction: Enhancing Large Language Models for Psychiatric Behavior Understanding by Dyadic Contexts [4.403408362362806]
本稿では,対話型対話による精神科的意思決定支援のための大規模言語モデルを文脈化するための,対話型連鎖促進手法を提案する。
このアプローチにより、大規模言語モデルでは、患者の行動コーディングのためのコーディングスキーム、患者の状態、およびドメイン知識を活用することができる。
論文 参考訳(メタデータ) (2024-03-20T17:47:49Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Towards Conversational Diagnostic AI [32.84876349808714]
本稿では,診断対話に最適化されたLarge Language Model (LLM)ベースのAIシステムであるAMIE(Articulate Medical Intelligence Explorer)を紹介する。
AMIEは、さまざまな疾患条件にまたがって学習をスケールするための自動フィードバック機構を備えた、セルフプレイベースのシミュレート環境を使用する。
AMIEの診断精度は, 専門医によると32例中28例, 患者アクターでは26例中24例で高い成績を示した。
論文 参考訳(メタデータ) (2024-01-11T04:25:06Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。