論文の概要: Blockchain-Enabled Explainable AI for Trusted Healthcare Systems
- arxiv url: http://arxiv.org/abs/2509.14987v1
- Date: Thu, 18 Sep 2025 14:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.263547
- Title: Blockchain-Enabled Explainable AI for Trusted Healthcare Systems
- Title(参考訳): 信頼できる医療システムのためのブロックチェーンで実現可能な説明可能なAI
- Authors: Md Talha Mohsin,
- Abstract要約: 本稿では、医療システムのためのa-Integrated Explainable AI Framework(BXHF)を紹介する。
我々は、安全なデータ交換と理解可能なAIによる臨床意思決定という、健康情報ネットワークに直面する2つの課題に取り組む。
当社のアーキテクチャにはブロックチェーンが組み込まれており、患者の記録が不変で、監査可能で、安全でないことが保証されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a Blockchain-Integrated Explainable AI Framework (BXHF) for healthcare systems to tackle two essential challenges confronting health information networks: safe data exchange and comprehensible AI-driven clinical decision-making. Our architecture incorporates blockchain, ensuring patient records are immutable, auditable, and tamper-proof, alongside Explainable AI (XAI) methodologies that yield transparent and clinically relevant model predictions. By incorporating security assurances and interpretability requirements into a unified optimization pipeline, BXHF ensures both data-level trust (by verified and encrypted record sharing) and decision-level trust (with auditable and clinically aligned explanations). Its hybrid edge-cloud architecture allows for federated computation across different institutions, enabling collaborative analytics while protecting patient privacy. We demonstrate the framework's applicability through use cases such as cross-border clinical research networks, uncommon illness detection and high-risk intervention decision support. By ensuring transparency, auditability, and regulatory compliance, BXHF improves the credibility, uptake, and effectiveness of AI in healthcare, laying the groundwork for safer and more reliable clinical decision-making.
- Abstract(参考訳): 本稿では、医療情報ネットワークに直面する2つの重要な課題に対処するために、Blockchain-Integrated Explainable AI Framework(BXHF)を提案する。
当社のアーキテクチャにはブロックチェーンが組み込まれており、患者の記録が不変で、監査可能で、改ざん防止であり、透過的で臨床的に関係のあるモデル予測をもたらす説明可能なAI(XAI)方法論が組み込まれています。
セキュリティ保証と解釈可能性要件を統一最適化パイプラインに組み込むことで、BXHFは(検証および暗号化された記録共有による)データレベルの信頼と(監査および臨床的に整合した説明を伴う)決定レベルの信頼の両方を保証する。
そのハイブリッドエッジクラウドアーキテクチャは、さまざまな機関にまたがるフェデレーション計算を可能にし、患者のプライバシ保護と協調分析を可能にする。
本稿では,国境を越えた臨床研究ネットワーク,異常な疾患検出,リスクの高い介入意思決定支援などのユースケースを通じて,フレームワークの適用性を実証する。
透明性、監査可能性、規制の遵守を保証することで、BXHFは医療におけるAIの信頼性、取り込み、有効性を改善し、より安全で信頼性の高い臨床的意思決定の基盤となる。
関連論文リスト
- Quantum-Inspired Privacy-Preserving Federated Learning Framework for Secure Dementia Classification [0.0]
本稿では,認知症分類のための量子インスピレーション暗号技術とフェデレーション学習を統合した新しいフレームワークを提案する。
このフレームワークは、低所得国と中所得国でAI駆動型認知症診断へのアクセスを民主化する上で重要な意味を持つ。
論文 参考訳(メタデータ) (2025-03-05T08:49:31Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Balancing Confidentiality and Transparency for Blockchain-based Process-Aware Information Systems [43.253676241213626]
機密性と透明性を維持するために,ブロックチェーンベースのPAISアーキテクチャを提案する。
スマートコントラクトは公開インタラクションを制定、強制、保存し、属性ベースの暗号化技術は機密情報へのアクセス許可を指定するために採用されている。
システム的脅威モデル解析によりソリューションの安全性を評価し,その実用性を評価する。
論文 参考訳(メタデータ) (2024-12-07T20:18:36Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - A Scalable Multi-Layered Blockchain Architecture for Enhanced EHR Sharing and Drug Supply Chain Management [3.149883354098941]
本稿では、電子健康記録の安全な共有とドラッグサプライチェーン管理のためのスケーラブルな多層ブロックチェーンアーキテクチャを提案する。
提案するフレームワークは,システムパフォーマンス,セキュリティ,患者中心のアクセス制御を強化する5つの異なるレイヤを導入している。
私たちのソリューションは、データの整合性、プライバシ、相互運用性を保証することで、既存の医療システムとの互換性を確保します。
論文 参考訳(メタデータ) (2024-02-27T09:20:16Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。