論文の概要: Beyond Black-Box AI: Interpretable Hybrid Systems for Dementia Care
- arxiv url: http://arxiv.org/abs/2507.01282v1
- Date: Wed, 02 Jul 2025 01:43:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.977876
- Title: Beyond Black-Box AI: Interpretable Hybrid Systems for Dementia Care
- Title(参考訳): Black-Box AIを超えて:認知症治療のための解釈可能なハイブリッドシステム
- Authors: Matthew JY Kang, Wenli Yang, Monica R Roberts, Byeong Ho Kang, Charles B Malpas,
- Abstract要約: 近年の大規模言語モデル(LLM)のブームは、人工知能(AI)システムが医療診断に役立つという期待を再燃させた。
ベンチマークスコアはめちゃくちゃですが、LCMアシスタントはまだベッドサイドで測定可能な改善を提供していません。
このスクーピングレビューは、臨床現場で実践的な貢献をするためにAIが制限されている領域を強調することを目的としている。
- 参考スコア(独自算出の注目度): 2.4339626079536925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent boom of large language models (LLMs) has re-ignited the hope that artificial intelligence (AI) systems could aid medical diagnosis. Yet despite dazzling benchmark scores, LLM assistants have yet to deliver measurable improvements at the bedside. This scoping review aims to highlight the areas where AI is limited to make practical contributions in the clinical setting, specifically in dementia diagnosis and care. Standalone machine-learning models excel at pattern recognition but seldom provide actionable, interpretable guidance, eroding clinician trust. Adjacent use of LLMs by physicians did not result in better diagnostic accuracy or speed. Key limitations trace to the data-driven paradigm: black-box outputs which lack transparency, vulnerability to hallucinations, and weak causal reasoning. Hybrid approaches that combine statistical learning with expert rule-based knowledge, and involve clinicians throughout the process help bring back interpretability. They also fit better with existing clinical workflows, as seen in examples like PEIRS and ATHENA-CDS. Future decision-support should prioritise explanatory coherence by linking predictions to clinically meaningful causes. This can be done through neuro-symbolic or hybrid AI that combines the language ability of LLMs with human causal expertise. AI researchers have addressed this direction, with explainable AI and neuro-symbolic AI being the next logical steps in further advancement in AI. However, they are still based on data-driven knowledge integration instead of human-in-the-loop approaches. Future research should measure success not only by accuracy but by improvements in clinician understanding, workflow fit, and patient outcomes. A better understanding of what helps improve human-computer interactions is greatly needed for AI systems to become part of clinical practice.
- Abstract(参考訳): 近年の大規模言語モデル(LLM)のブームは、人工知能(AI)システムが医療診断に役立つという期待を再燃させた。
しかし、ベンチマークスコアが急上昇しているにもかかわらず、LCMアシスタントはベッドサイドで測定可能な改善をまだ提供していない。
このスコーピングレビューは、特に認知症診断とケアにおいて、臨床環境で実践的な貢献をするためにAIが制限されている領域を強調することを目的としている。
スタンドアロンの機械学習モデルはパターン認識に優れているが、行動可能で解釈可能なガイダンスを提供し、臨床医の信頼を損なうことは滅多にない。
医師によるLCMの隣接使用は、診断精度や速度を向上させるには至らなかった。
主な制限は、透明性の欠如、幻覚への脆弱性、因果推論の弱いブラックボックス出力である。
統計的学習と専門家のルールベースの知識を組み合わせるハイブリッドアプローチは、プロセス全体を通して臨床医を巻き込み、解釈可能性を取り戻すのに役立つ。
また、PEIRSやATHENA-CDSのような既存の臨床ワークフローにも適合する。
今後の意思決定支援は、予測と臨床的に有意な原因を結びつけることによって説明的コヒーレンスを優先すべきである。
これは、LLMの言語能力と人間の因果的専門知識を組み合わせた、ニューロシンボリックまたはハイブリッドAIによって実現される。
説明可能なAIとニューロシンボリックAIが、AIのさらなる進歩の次の論理的なステップである。
しかし、それらはまだ、人間-イン-ザ-ループアプローチではなく、データ駆動の知識統合に基づいている。
今後の研究は、正確性だけでなく、臨床医の理解、ワークフロー適合、患者結果の改善によっても成功を測定するべきである。
AIシステムが臨床実践の一部となるためには、人間とコンピュータの相互作用を改善するために何が役立つのかをよりよく理解する必要がある。
関連論文リスト
- The Impact of Artificial Intelligence on Emergency Medicine: A Review of Recent Advances [0.2544903230401084]
人工知能(AI)は、診断プロセスを強化し、患者の結果を改善することで、救急医療に革命をもたらす。
機械学習とディープラーニングは、複雑な画像データの解釈において重要な要素であり、迅速で正確な診断を提供し、従来の診断方法を超える可能性がある。
これらの進歩にもかかわらず、AIを臨床実践に統合することは、データのプライバシ、アルゴリズムバイアス、さまざまな設定にまたがる広範な検証の必要性といった課題を提示している。
論文 参考訳(メタデータ) (2025-03-17T17:45:00Z) - Contrasting Attitudes Towards Current and Future AI Applications for Computerised Interpretation of ECG: A Clinical Stakeholder Interview Study [2.570550251482137]
英国で臨床医に一連のインタビューを行った。
我々の研究は、AI、特に未来の「人間のような」コンピューティングの可能性を探る。
論文 参考訳(メタデータ) (2024-10-22T10:31:23Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - A Conceptual Algorithm for Applying Ethical Principles of AI to Medical Practice [5.005928809654619]
AIを利用するツールは、複数のドメインにまたがる専門家レベルのパフォーマンスに、ますます一致するか、超えている。
これらのシステムは、人口、人種、社会経済の境界を越えたケア提供の格差を減らすことを約束している。
このようなAIツールの民主化は、ケアコストを削減し、リソース割り当てを最適化し、ケアの質を向上させる。
論文 参考訳(メタデータ) (2023-04-23T04:14:18Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。