論文の概要: zkFL-Health: Blockchain-Enabled Zero-Knowledge Federated Learning for Medical AI Privacy
- arxiv url: http://arxiv.org/abs/2512.21048v1
- Date: Wed, 24 Dec 2025 08:29:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.736654
- Title: zkFL-Health: Blockchain-Enabled Zero-Knowledge Federated Learning for Medical AI Privacy
- Title(参考訳): zkFL-Health: ブロックチェーンによる医療AIプライバシのためのゼロ知識フェデレーション学習
- Authors: Savvy Sharma, George Petrovic, Sarthak Kaushik,
- Abstract要約: zkFL-Healthは、フェデレートラーニング(FL)とゼロ知識証明(ZKP)と信頼実行環境(TEE)を組み合わせたアーキテクチャである。
クライアントはローカルにトレーニングし、アップデートをコミットする。アグリゲータはTEE内でグローバルアップデートを計算し、クライアントのアップデートをホストに公開することなく、コミットした入力と正しいアグリゲーションルールを正確に使用したという簡潔なZK証明を生成する。
医療に適したシステムと脅威モデル、zkFL-Healthプロトコル、セキュリティ/プライバシ保証、正確性、プライバシリスク、レイテンシ、コストにまたがるパフォーマンス評価計画について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Healthcare AI needs large, diverse datasets, yet strict privacy and governance constraints prevent raw data sharing across institutions. Federated learning (FL) mitigates this by training where data reside and exchanging only model updates, but practical deployments still face two core risks: (1) privacy leakage via gradients or updates (membership inference, gradient inversion) and (2) trust in the aggregator, a single point of failure that can drop, alter, or inject contributions undetected. We present zkFL-Health, an architecture that combines FL with zero-knowledge proofs (ZKPs) and Trusted Execution Environments (TEEs) to deliver privacy-preserving, verifiably correct collaborative training for medical AI. Clients locally train and commit their updates; the aggregator operates within a TEE to compute the global update and produces a succinct ZK proof (via Halo2/Nova) that it used exactly the committed inputs and the correct aggregation rule, without revealing any client update to the host. Verifier nodes validate the proof and record cryptographic commitments on-chain, providing an immutable audit trail and removing the need to trust any single party. We outline system and threat models tailored to healthcare, the zkFL-Health protocol, security/privacy guarantees, and a performance evaluation plan spanning accuracy, privacy risk, latency, and cost. This framework enables multi-institutional medical AI with strong confidentiality, integrity, and auditability, key properties for clinical adoption and regulatory compliance.
- Abstract(参考訳): 医療AIは大規模で多様なデータセットを必要とするが、プライバシーとガバナンスの制約は機関間の生データ共有を妨げている。
フェデレーテッド・ラーニング(FL)は、データがモデル更新のみに留まり、交換されるようにトレーニングすることでこれを緩和するが、実際のデプロイメントは、(1)グラデーションや更新(メンバシップの推論、勾配の反転)によるプライバシ・リークと(2)アグリゲータへの信頼という、2つの主要なリスクに直面している。
FLとゼロ知識証明(ZKP)とTrusted Execution Environments(TEE)を組み合わせたアーキテクチャであるzkFL-Healthを提案する。
クライアントはローカルにトレーニングし、アップデートをコミットする。アグリゲータは、グローバルアップデートを計算するためにTEE内で動作し、クライアントの更新を一切明らかにすることなく、コミットされた入力と正しいアグリゲーションルールを正確に使用した、簡潔なZK証明を生成する(Halo2/Nova経由)。
検証ノードは証明を検証し、暗号のコミットをチェーン上で記録し、不変の監査証跡を提供し、単一パーティを信頼する必要をなくす。
医療に適したシステムと脅威モデル、zkFL-Healthプロトコル、セキュリティ/プライバシ保証、正確性、プライバシリスク、レイテンシ、コストにまたがるパフォーマンス評価計画について概説する。
このフレームワークは、強力な機密性、完全性、監査性を備えた多施設医療AIを可能にする。
関連論文リスト
- Blockchain-Enabled Explainable AI for Trusted Healthcare Systems [0.0]
本稿では、医療システムのためのa-Integrated Explainable AI Framework(BXHF)を紹介する。
我々は、安全なデータ交換と理解可能なAIによる臨床意思決定という、健康情報ネットワークに直面する2つの課題に取り組む。
当社のアーキテクチャにはブロックチェーンが組み込まれており、患者の記録が不変で、監査可能で、安全でないことが保証されています。
論文 参考訳(メタデータ) (2025-09-18T14:17:19Z) - Blockchain-Enabled Privacy-Preserving Second-Order Federated Edge Learning in Personalized Healthcare [1.859970493489417]
フェデレートラーニング(FL)は、従来のクラウド中心の機械学習モデルにおいて、セキュリティとプライバシの課題に注目が集まっている。
1次FLアプローチは、異種非独立で同一に分散された(非id)データにより、パーソナライズされたモデルトレーニングにおいていくつかの課題に直面している。
近年,2次FLアプローチは,パーソナライズされたモデルトレーニングを改善しつつ,非IDデータセットの安定性と一貫性を維持している。
論文 参考訳(メタデータ) (2025-05-31T06:41:04Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - A Prototype Model of Zero-Trust Architecture Blockchain with EigenTrust-Based Practical Byzantine Fault Tolerance Protocol to Manage Decentralized Clinical Trials [5.565144088361576]
本稿では,DCT手術管理における患者生成臨床試験データを統合するためのZero-Trust Architecture(z-TAB)の試作モデルを提案する。
IoT(Internet of Things)はブロックチェーンプラットフォーム内の利害関係者間でのデータ処理を合理化するために統合されている。
論文 参考訳(メタデータ) (2024-08-29T20:18:00Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - A Privacy-Preserving and Trustable Multi-agent Learning Framework [34.28936739262812]
本稿では,プライバシ保護と信頼性のある分散学習(PT-DL)を提案する。
PT-DLは、エージェントのデータに対する強力なプライバシ保護を保証するために、差分プライバシに依存する、完全に分散化されたフレームワークである。
本論文は,PT-DLが50%の衝突攻撃に対して,悪意のある信頼モデルで高い確率で回復可能であることを示す。
論文 参考訳(メタデータ) (2021-06-02T15:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。