論文の概要: Embedding Explainable AI in NHS Clinical Safety: The Explainability-Enabled Clinical Safety Framework (ECSF)
- arxiv url: http://arxiv.org/abs/2511.11590v2
- Date: Tue, 18 Nov 2025 14:03:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.253135
- Title: Embedding Explainable AI in NHS Clinical Safety: The Explainability-Enabled Clinical Safety Framework (ECSF)
- Title(参考訳): 説明可能なAIをNHS臨床安全に組み込む: 説明可能な臨床安全フレームワーク(ECSF)
- Authors: Robert Gigiu,
- Abstract要約: 本稿では,説明責任をDCB0129/0160ライフサイクルに組み込んだ説明責任型臨床安全フレームワーク(ECSF)を提案する。
相互規制合成は、DCB節をグッド機械学習プラクティス、NHS AI AssuranceとT.E.S.Tフレームワーク、EU AI Actの原則にマッピングする。
ECSFは5つのチェックポイントを導入している: リスク識別のためのグローバルな透明性、検証のためのケースレベルの解釈可能性、評価のための臨床使用性、リスク管理のためのトレーサブルな決定経路、市場後監視のための縦断的な解釈可能性監視。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) is increasingly embedded in NHS workflows, but its probabilistic and adaptive behaviour conflicts with the deterministic assumptions underpinning existing clinical-safety standards. DCB0129 and DCB0160 provide strong governance for conventional software yet do not define how AI-specific transparency, interpretability, or model drift should be evidenced within Safety Cases, Hazard Logs, or post-market monitoring. This paper proposes an Explainability-Enabled Clinical Safety Framework (ECSF) that integrates explainability into the DCB0129/0160 lifecycle, enabling Clinical Safety Officers to use interpretability outputs as structured safety evidence without altering compliance pathways. A cross-regulatory synthesis mapped DCB clauses to principles from Good Machine Learning Practice, the NHS AI Assurance and T.E.S.T. frameworks, and the EU AI Act. The resulting matrix links regulatory clauses, principles, ECSF checkpoints, and suitable explainability outputs. ECSF introduces five checkpoints: global transparency for hazard identification, case-level interpretability for verification, clinician usability for evaluation, traceable decision pathways for risk control, and longitudinal interpretability monitoring for post-market surveillance. Techniques such as SHAP, LIME, Integrated Gradients, saliency mapping, and attention visualisation are mapped to corresponding DCB artefacts. ECSF reframes explainability as a core element of clinical-safety assurance, bridging deterministic risk governance with the probabilistic behaviour of AI and supporting alignment with GMLP, the EU AI Act, and NHS AI Assurance principles.
- Abstract(参考訳): 人工知能(AI)は、NHSワークフローにますます組み込まれているが、その確率的かつ適応的な行動は、既存の臨床安全基準を支える決定論的仮定と矛盾している。
DCB0129とDCB0160は、従来のソフトウェアに対して強力なガバナンスを提供するが、AI固有の透明性、解釈可能性、モデルドリフトが、セーフティケース、ハザードログ、あるいはポストマーケット監視の中でどのように証明されるべきかを定義していない。
本稿では,DCB0129/0160ライフサイクルに説明責任を組み込んだ説明責任型臨床安全フレームワーク(ECSF)を提案する。
相互規制合成は、DCB節をグッド・機械学習・プラクティス、NHS AI Assurance、T.E.S.T.フレームワーク、EU AI Actの原則にマッピングした。
結果の行列は、規制条項、原則、ECSFチェックポイント、適切な説明可能性出力をリンクする。
ECSFは5つのチェックポイントを導入している: リスク識別のためのグローバルな透明性、検証のためのケースレベルの解釈可能性、評価のための臨床使用性、リスク管理のためのトレーサブルな決定経路、市場後監視のための縦断的な解釈可能性監視。
SHAP, LIME, Integrated Gradients, saliency Mapping, attention visualizationなどの手法を対応するDCBアーチファクトにマッピングする。
ECSFは、臨床安全保証の中核的な要素として説明可能性を再設定し、AIの確率的振る舞いと決定論的リスクガバナンスをブリッジし、GMLP、EU AI Act、NHS AI Assurance原則との整合をサポートする。
関連論文リスト
- Blockchain-Enabled Explainable AI for Trusted Healthcare Systems [0.0]
本稿では、医療システムのためのa-Integrated Explainable AI Framework(BXHF)を紹介する。
我々は、安全なデータ交換と理解可能なAIによる臨床意思決定という、健康情報ネットワークに直面する2つの課題に取り組む。
当社のアーキテクチャにはブロックチェーンが組み込まれており、患者の記録が不変で、監査可能で、安全でないことが保証されています。
論文 参考訳(メタデータ) (2025-09-18T14:17:19Z) - Ethical AI: Towards Defining a Collective Evaluation Framework [0.3413711585591077]
人工知能(AI)は医療、金融、自律システムといった分野を変えつつある。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
本稿では,意味不明で解釈可能な単位のオントロジブロック上に構築されたモジュール型倫理的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T21:10:47Z) - Towards Safety Reasoning in LLMs: AI-agentic Deliberation for Policy-embedded CoT Data Creation [70.62656296780074]
本稿では,新しいデータ生成法であるAIDSAFE(Agenic Iterative Deliberation for Safety Reasoning)を提案する。
AIDSAFEにおけるデータリファインダーの段階は、反復的、冗長的、詐欺的思考を排除し、高品質なアウトプットを保証する。
本評価は, AIDSAFEによるCoTsが, より優れた政策順守と推論品質を実現することを示すものである。
論文 参考訳(メタデータ) (2025-05-27T21:34:40Z) - Beyond Explainability: The Case for AI Validation [0.0]
我々は、中央規制柱としての検証へのシフトを主張する。
AI出力の信頼性、一貫性、堅牢性を保証するバリデーションは、説明可能性に対してより実用的で、スケーラブルで、リスクに敏感な代替手段を提供する。
本稿では,事前・後検証,第三者監査,調和標準,債務インセンティブを中心に,先進的な政策枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-27T06:42:41Z) - Context Reasoner: Incentivizing Reasoning Capability for Contextualized Privacy and Safety Compliance via Reinforcement Learning [53.92712851223158]
安全とプライバシの問題を文脈整合性(CI)理論に従って文脈整合性問題に定式化する。
CIフレームワークの下では、当社のモデルを3つの重要な規制基準 – EU AI ActとHIPAA – に整合させています。
我々は、安全・プライバシー基準の遵守を高めつつ、文脈推論能力を高めるためにルールベースの報酬を持つ強化学習(RL)を採用している。
論文 参考訳(メタデータ) (2025-05-20T16:40:09Z) - SafetyAnalyst: Interpretable, Transparent, and Steerable Safety Moderation for AI Behavior [56.10557932893919]
我々は、新しいAI安全モデレーションフレームワークであるSafetyAnalystを紹介する。
AIの振る舞いを考えると、SafetyAnalystはチェーン・オブ・シークレット・推論を使用してその潜在的な結果を分析する。
効果を28個の完全に解釈可能な重みパラメータを使って有害度スコアに集約する。
論文 参考訳(メタデータ) (2024-10-22T03:38:37Z) - Safe Inputs but Unsafe Output: Benchmarking Cross-modality Safety Alignment of Large Vision-Language Model [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - Fair by design: A sociotechnical approach to justifying the fairness of AI-enabled systems across the lifecycle [0.8164978442203773]
公正性は、既存のAIガイドラインにおいて最もよく認識される倫理的原則の1つである。
公正なAI対応システムの開発は、新たなAI規制によって要求される。
論文 参考訳(メタデータ) (2024-06-13T12:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。