論文の概要: From Explainability to Action: A Generative Operational Framework for Integrating XAI in Clinical Mental Health Screening
- arxiv url: http://arxiv.org/abs/2510.13828v1
- Date: Fri, 10 Oct 2025 05:46:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.452979
- Title: From Explainability to Action: A Generative Operational Framework for Integrating XAI in Clinical Mental Health Screening
- Title(参考訳): 説明可能性から行動へ:臨床メンタルヘルススクリーニングにおけるXAI統合のための生成的操作フレームワーク
- Authors: Ratna Kandala, Akshata Kishore Moharir, Divya Arvinda Nayak,
- Abstract要約: 本稿では,このギャップは翻訳問題であり,生成操作フレームワークを提案する。
このフレームワークは、様々なXAIツールから得られた生の技術的出力を取り込み、臨床ガイドラインでそれらを合成するように設計されている。
- 参考スコア(独自算出の注目度): 0.3181700357675698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) has been presented as the critical component for unlocking the potential of machine learning in mental health screening (MHS). However, a persistent lab-to-clinic gap remains. Current XAI techniques, such as SHAP and LIME, excel at producing technically faithful outputs such as feature importance scores, but fail to deliver clinically relevant, actionable insights that can be used by clinicians or understood by patients. This disconnect between technical transparency and human utility is the primary barrier to real-world adoption. This paper argues that this gap is a translation problem and proposes the Generative Operational Framework, a novel system architecture that leverages Large Language Models (LLMs) as a central translation engine. This framework is designed to ingest the raw, technical outputs from diverse XAI tools and synthesize them with clinical guidelines (via RAG) to automatically generate human-readable, evidence-backed clinical narratives. To justify our solution, we provide a systematic analysis of the components it integrates, tracing the evolution from intrinsic models to generative XAI. We demonstrate how this framework directly addresses key operational barriers, including workflow integration, bias mitigation, and stakeholder-specific communication. This paper also provides a strategic roadmap for moving the field beyond the generation of isolated data points toward the delivery of integrated, actionable, and trustworthy AI in clinical practice.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、メンタルヘルススクリーニング(MHS)における機械学習の可能性を解き放つ重要なコンポーネントとして提示されている。
しかし、ラボとクリニックのギャップは持続的に残っている。
SHAPやLIMEといった現在のXAI技術は、特徴重要度スコアなどの技術的に忠実なアウトプットを生み出すのに優れていますが、臨床医や患者が理解できる、臨床的に関連性があり、実行可能な洞察を与えられません。
この技術的透明性とヒューマンユーティリティの切り離しは、実世界の採用の主要な障壁である。
本稿では,このギャップは翻訳問題であり,Large Language Models (LLM) を中心的な翻訳エンジンとして活用する新しいシステムアーキテクチャであるGenerative Operational Frameworkを提案する。
このフレームワークは、さまざまなXAIツールから得られた生の技術的成果を取り込み、臨床ガイドライン(RAG経由で)でそれらを合成して、人間の読みやすいエビデンスに支えられた臨床物語を自動的に生成するように設計されている。
我々のソリューションを正当化するために、我々はそれが統合するコンポーネントを体系的に分析し、本質的なモデルから生成的XAIへの進化をトレースする。
ワークフロー統合、バイアス緩和、ステークホルダー固有のコミュニケーションなど、このフレームワークがいかにして重要な運用障壁に対処するかを実証する。
また、臨床実践において、統合的で行動可能で信頼できるAIの提供に向けて、孤立したデータポイントの生成を超えて、フィールドを移動するための戦略的ロードマップを提供する。
関連論文リスト
- A Model-Driven Engineering Approach to AI-Powered Healthcare Platforms [0.03262230127283451]
医療AIに特化したモデル駆動工学(MDE)フレームワークを導入する。
フレームワークは、フォーマルなメタモデル、ドメイン固有言語、そして、ハイレベルな仕様から実行中のソフトウェアに移行するための自動変換に依存しています。
マルチセンター癌免疫療法研究において,本手法について検討した。
論文 参考訳(メタデータ) (2025-10-10T12:00:12Z) - Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - Generative Artificial Intelligence in Medical Imaging: Foundations, Progress, and Clinical Translation [14.306027161664565]
生成人工知能(AI)は、急速に医療画像に変化をもたらしている。
生成AIは、取得と再構成からモダリティ間の合成まで、画像連続のキーステージに寄与する。
このレビューは,AI,医学,バイオメディカルエンジニアリングの交差点における今後の研究の指導と学際協力の育成を目的としている。
論文 参考訳(メタデータ) (2025-08-07T07:58:40Z) - NEARL-CLIP: Interacted Query Adaptation with Orthogonal Regularization for Medical Vision-Language Understanding [51.63264715941068]
textbfNEARL-CLIP (iunderlineNteracted quunderlineEry underlineAdaptation with ounderlineRthogonaunderlineL regularization)は、VLMベースの新しい相互モダリティ相互作用フレームワークである。
論文 参考訳(メタデータ) (2025-08-06T05:44:01Z) - Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - GAMedX: Generative AI-based Medical Entity Data Extractor Using Large Language Models [1.123722364748134]
本稿では,Large Language Models(LLMs)を利用した名前付きエンティティ認識(NER)アプローチであるGAMedXを紹介する。
この方法論は、NERのためのオープンソースのLCMを統合し、特殊な医学用語の複雑さをナビゲートするために、連鎖プロンプトとピダンティックスキーマを構造化出力に利用している。
その結果, 評価データセットの1つに対して, 98%の精度でROUGE F1の有意なスコアが得られた。
論文 参考訳(メタデータ) (2024-05-31T02:53:22Z) - Transparent AI: Developing an Explainable Interface for Predicting Postoperative Complications [1.6609516435725236]
我々は5つの重要な質問に答えるために設計された説明可能なAI(XAI)フレームワークを提案する。
我々は,LIME(Local Interpretable Model-Agnostic Explanations)などの様々な手法を取り入れた。
術後合併症の予測を目的としたXAIインタフェースの試作について紹介した。
論文 参考訳(メタデータ) (2024-04-18T21:01:27Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。