論文の概要: Blockchain-Enabled Explainable AI for Trusted Healthcare Systems
- arxiv url: http://arxiv.org/abs/2509.14987v1
- Date: Thu, 18 Sep 2025 14:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.263547
- Title: Blockchain-Enabled Explainable AI for Trusted Healthcare Systems
- Title(参考訳): 信頼できる医療システムのためのブロックチェーンで実現可能な説明可能なAI
- Authors: Md Talha Mohsin,
- Abstract要約: 本稿では、医療システムのためのa-Integrated Explainable AI Framework(BXHF)を紹介する。
我々は、安全なデータ交換と理解可能なAIによる臨床意思決定という、健康情報ネットワークに直面する2つの課題に取り組む。
当社のアーキテクチャにはブロックチェーンが組み込まれており、患者の記録が不変で、監査可能で、安全でないことが保証されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a Blockchain-Integrated Explainable AI Framework (BXHF) for healthcare systems to tackle two essential challenges confronting health information networks: safe data exchange and comprehensible AI-driven clinical decision-making. Our architecture incorporates blockchain, ensuring patient records are immutable, auditable, and tamper-proof, alongside Explainable AI (XAI) methodologies that yield transparent and clinically relevant model predictions. By incorporating security assurances and interpretability requirements into a unified optimization pipeline, BXHF ensures both data-level trust (by verified and encrypted record sharing) and decision-level trust (with auditable and clinically aligned explanations). Its hybrid edge-cloud architecture allows for federated computation across different institutions, enabling collaborative analytics while protecting patient privacy. We demonstrate the framework's applicability through use cases such as cross-border clinical research networks, uncommon illness detection and high-risk intervention decision support. By ensuring transparency, auditability, and regulatory compliance, BXHF improves the credibility, uptake, and effectiveness of AI in healthcare, laying the groundwork for safer and more reliable clinical decision-making.
- Abstract(参考訳): 本稿では、医療情報ネットワークに直面する2つの重要な課題に対処するために、Blockchain-Integrated Explainable AI Framework(BXHF)を提案する。
当社のアーキテクチャにはブロックチェーンが組み込まれており、患者の記録が不変で、監査可能で、改ざん防止であり、透過的で臨床的に関係のあるモデル予測をもたらす説明可能なAI(XAI)方法論が組み込まれています。
セキュリティ保証と解釈可能性要件を統一最適化パイプラインに組み込むことで、BXHFは(検証および暗号化された記録共有による)データレベルの信頼と(監査および臨床的に整合した説明を伴う)決定レベルの信頼の両方を保証する。
そのハイブリッドエッジクラウドアーキテクチャは、さまざまな機関にまたがるフェデレーション計算を可能にし、患者のプライバシ保護と協調分析を可能にする。
本稿では,国境を越えた臨床研究ネットワーク,異常な疾患検出,リスクの高い介入意思決定支援などのユースケースを通じて,フレームワークの適用性を実証する。
透明性、監査可能性、規制の遵守を保証することで、BXHFは医療におけるAIの信頼性、取り込み、有効性を改善し、より安全で信頼性の高い臨床的意思決定の基盤となる。
関連論文リスト
- Towards Reliable Medical LLMs: Benchmarking and Enhancing Confidence Estimation of Large Language Models in Medical Consultation [97.36081721024728]
本稿では,現実的な医療相談におけるマルチターンインタラクションの信頼性を評価するための最初のベンチマークを提案する。
本ベンチマークでは,3種類の医療データを統合し,診断を行う。
本稿では,エビデンスを基盤とした言語自己評価フレームワークであるMedConfを紹介する。
論文 参考訳(メタデータ) (2026-01-22T04:51:39Z) - zkFL-Health: Blockchain-Enabled Zero-Knowledge Federated Learning for Medical AI Privacy [0.0]
zkFL-Healthは、フェデレートラーニング(FL)とゼロ知識証明(ZKP)と信頼実行環境(TEE)を組み合わせたアーキテクチャである。
クライアントはローカルにトレーニングし、アップデートをコミットする。アグリゲータはTEE内でグローバルアップデートを計算し、クライアントのアップデートをホストに公開することなく、コミットした入力と正しいアグリゲーションルールを正確に使用したという簡潔なZK証明を生成する。
医療に適したシステムと脅威モデル、zkFL-Healthプロトコル、セキュリティ/プライバシ保証、正確性、プライバシリスク、レイテンシ、コストにまたがるパフォーマンス評価計画について概説する。
論文 参考訳(メタデータ) (2025-12-24T08:29:28Z) - Embedding Explainable AI in NHS Clinical Safety: The Explainability-Enabled Clinical Safety Framework (ECSF) [0.0]
本稿では,説明責任をDCB0129/0160ライフサイクルに組み込んだ説明責任型臨床安全フレームワーク(ECSF)を提案する。
相互規制合成は、DCB節をグッド機械学習プラクティス、NHS AI AssuranceとT.E.S.Tフレームワーク、EU AI Actの原則にマッピングする。
ECSFは5つのチェックポイントを導入している: リスク識別のためのグローバルな透明性、検証のためのケースレベルの解釈可能性、評価のための臨床使用性、リスク管理のためのトレーサブルな決定経路、市場後監視のための縦断的な解釈可能性監視。
論文 参考訳(メタデータ) (2025-10-24T07:36:58Z) - Fusion of Machine Learning and Blockchain-based Privacy-Preserving Approach for Health Care Data in the Internet of Things [0.5097809301149341]
IoT(Internet of Things)デバイスの医療分野への迅速な統合は、患者のケアとデータ管理において革命的な進歩をもたらした。
これらの技術革新は、特に潜在的なサイバー脅威に対する医療データの保護において、重要なセキュリティ上の懸念を提起する。
本稿では,IoTベースの医療システムにおけるセキュリティ強化の必要性に対処するために,3つの異なるフェーズを包含する包括的手法を提案する。
論文 参考訳(メタデータ) (2025-10-21T19:09:46Z) - Quantum-Inspired Privacy-Preserving Federated Learning Framework for Secure Dementia Classification [0.0]
本稿では,認知症分類のための量子インスピレーション暗号技術とフェデレーション学習を統合した新しいフレームワークを提案する。
このフレームワークは、低所得国と中所得国でAI駆動型認知症診断へのアクセスを民主化する上で重要な意味を持つ。
論文 参考訳(メタデータ) (2025-03-05T08:49:31Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Balancing Confidentiality and Transparency for Blockchain-based Process-Aware Information Systems [43.253676241213626]
機密性と透明性を維持するために,ブロックチェーンベースのPAISアーキテクチャを提案する。
スマートコントラクトは公開インタラクションを制定、強制、保存し、属性ベースの暗号化技術は機密情報へのアクセス許可を指定するために採用されている。
システム的脅威モデル解析によりソリューションの安全性を評価し,その実用性を評価する。
論文 参考訳(メタデータ) (2024-12-07T20:18:36Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - A Scalable Multi-Layered Blockchain Architecture for Enhanced EHR Sharing and Drug Supply Chain Management [3.149883354098941]
本稿では、電子健康記録の安全な共有とドラッグサプライチェーン管理のためのスケーラブルな多層ブロックチェーンアーキテクチャを提案する。
提案するフレームワークは,システムパフォーマンス,セキュリティ,患者中心のアクセス制御を強化する5つの異なるレイヤを導入している。
私たちのソリューションは、データの整合性、プライバシ、相互運用性を保証することで、既存の医療システムとの互換性を確保します。
論文 参考訳(メタデータ) (2024-02-27T09:20:16Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。