論文の概要: Towards Explainable Conversational AI for Early Diagnosis with Large Language Models
- arxiv url: http://arxiv.org/abs/2512.17559v1
- Date: Fri, 19 Dec 2025 13:28:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.399453
- Title: Towards Explainable Conversational AI for Early Diagnosis with Large Language Models
- Title(参考訳): 大規模言語モデルによる早期診断のための説明可能な会話型AIの実現に向けて
- Authors: Maliha Tabassum, M Shamim Kaiser,
- Abstract要約: 医療システムは、非効率な診断、コストの上昇、専門家への限られたアクセスといった問題に悩まされている。
現在のAIとディープラーニングの診断システムは、あまりインタラクティブで透過的ではなく、現実の患者中心の環境では効果が低い。
本稿では,GPT-4o,Retrieval-Augmented Generation,説明可能なAI技術を用いて,LLM(Large Language Model)を利用した診断チャットボットを提案する。
Chain-of-Thoughtの推進により、このシステムは診断の背後にあるより透明な推論も提供する。
- 参考スコア(独自算出の注目度): 1.7236025557731807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Healthcare systems around the world are grappling with issues like inefficient diagnostics, rising costs, and limited access to specialists. These problems often lead to delays in treatment and poor health outcomes. Most current AI and deep learning diagnostic systems are not very interactive or transparent, making them less effective in real-world, patient-centered environments. This research introduces a diagnostic chatbot powered by a Large Language Model (LLM), using GPT-4o, Retrieval-Augmented Generation, and explainable AI techniques. The chatbot engages patients in a dynamic conversation, helping to extract and normalize symptoms while prioritizing potential diagnoses through similarity matching and adaptive questioning. With Chain-of-Thought prompting, the system also offers more transparent reasoning behind its diagnoses. When tested against traditional machine learning models like Naive Bayes, Logistic Regression, SVM, Random Forest, and KNN, the LLM-based system delivered impressive results, achieving an accuracy of 90% and Top-3 accuracy of 100%. These findings offer a promising outlook for more transparent, interactive, and clinically relevant AI in healthcare.
- Abstract(参考訳): 世界中の医療システムは、非効率な診断、コストの上昇、専門家への限られたアクセスといった問題に悩まされている。
これらの問題は治療の遅れや健康状態の悪化につながることが多い。
現在のAIとディープラーニングの診断システムは、あまりインタラクティブで透過的ではなく、現実の患者中心の環境では効果が低い。
本稿では,GPT-4o,Retrieval-Augmented Generation,説明可能なAI技術を用いて,LLM(Large Language Model)を利用した診断チャットボットを提案する。
このチャットボットは、ダイナミックな会話に患者を巻き込み、類似性マッチングと適応的質問を通じて潜在的な診断を優先順位付けしながら症状を抽出し、正常化する。
Chain-of-Thoughtの推進により、このシステムは診断の背後にあるより透明な推論も提供する。
Naive Bayes、Logistic Regression、SVM、Random Forest、KNNといった従来の機械学習モデルと比較すると、LLMベースのシステムは、90%の精度とトップ3の精度を達成し、素晴らしい結果をもたらした。
これらの発見は、医療におけるより透明性があり、インタラクティブで、臨床的に関係のあるAIに対する、有望な展望を提供する。
関連論文リスト
- Explainable AI as a Double-Edged Sword in Dermatology: The Impact on Clinicians versus The Public [46.86429592892395]
説明可能なAI(XAI)は、AI意思決定の洞察を提供することによって、この問題に対処する。
フェアネスに基づく診断AIモデルと異なるXAI説明を組み合わせた2つの大規模実験の結果を報告する。
論文 参考訳(メタデータ) (2025-12-14T00:06:06Z) - Visual Analytics for Explainable and Trustworthy Artificial Intelligence [2.1212179660694104]
AI採用の大きな障害は、透明性の欠如にある。
多くの自動化システムはブラックボックスとして機能し、基盤となるプロセスを明らかにすることなく予測を提供する。
ビジュアル分析(VA)は、AIモデルとインタラクティブな視覚化を組み合わせることで、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-07-14T13:03:17Z) - Beyond Black-Box AI: Interpretable Hybrid Systems for Dementia Care [2.4339626079536925]
近年の大規模言語モデル(LLM)のブームは、人工知能(AI)システムが医療診断に役立つという期待を再燃させた。
ベンチマークスコアはめちゃくちゃですが、LCMアシスタントはまだベッドサイドで測定可能な改善を提供していません。
このスクーピングレビューは、臨床現場で実践的な貢献をするためにAIが制限されている領域を強調することを目的としている。
論文 参考訳(メタデータ) (2025-07-02T01:43:06Z) - Advancing Conversational Diagnostic AI with Multimodal Reasoning [44.1996223689966]
アーティキュレート・メディカル・インテリジェンス・エクスプローラー(AMIE)
システムは、対話フローを中間モデル出力によって動的に制御する状態認識対話フレームワークを実装している。
患者アクターとのチャットベースの相談の無作為で盲目なOSCEスタイルの研究において, AMIEをプライマリケア医師(PCP)と比較した。
論文 参考訳(メタデータ) (2025-05-06T20:52:01Z) - Dialogue is Better Than Monologue: Instructing Medical LLMs via Strategical Conversations [74.83732294523402]
実世界の診断シナリオをシミュレートし,USMLE標準に適合するノイズと難易度を統合する新しいベンチマークを導入する。
また、対話に基づく微調整についても検討し、静的データセットを会話形式に変換し、反復的推論プロセスをよりよく捉える。
実験の結果、対話調整されたモデルは従来の手法よりも優れており、マルチラウンド推論のシナリオでは9.64%、ノイズの多い環境では6.18%の精度で改善されている。
論文 参考訳(メタデータ) (2025-01-29T18:58:48Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - Conversational Disease Diagnosis via External Planner-Controlled Large Language Models [18.93345199841588]
本研究は,医師のエミュレートによる計画能力の向上を目的としたLCMに基づく診断システムを提案する。
実際の患者電子カルテデータを利用して,仮想患者と医師とのシミュレーション対話を構築した。
論文 参考訳(メタデータ) (2024-04-04T06:16:35Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Health-LLM: Personalized Retrieval-Augmented Disease Prediction System [43.91623010448573]
本稿では,大規模特徴抽出と医療知識トレードオフスコアリングを組み合わせた,革新的なフレームワークHeath-LLMを提案する。
従来の健康管理アプリケーションと比較して,本システムには3つの利点がある。
論文 参考訳(メタデータ) (2024-02-01T16:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。