論文の概要: Zero-Knowledge Federated Learning with Lattice-Based Hybrid Encryption for Quantum-Resilient Medical AI
- arxiv url: http://arxiv.org/abs/2603.03398v1
- Date: Tue, 03 Mar 2026 12:43:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.034834
- Title: Zero-Knowledge Federated Learning with Lattice-Based Hybrid Encryption for Quantum-Resilient Medical AI
- Title(参考訳): 量子レジリエンス医療AIのための格子型ハイブリッド暗号化によるゼロ知識フェデレーション学習
- Authors: Edouard Lansiaux,
- Abstract要約: Federated Learning (FL)は、患者データを集中することなく、病院全体で医療AIモデルの協調トレーニングを可能にする。
グラデーション・インバージョン・アタックは患者の情報を再構築し、ビザンチンのクライアントはグローバルモデルに毒を塗布し、emphHarvest Now, Decrypt Later(HNDL)の脅威は、今日の暗号化トラフィックを将来の量子敵に脆弱にしている。
EmphZeroKnowledge Federated Learning, Post-Quantumは、(i) ML-KEMを量子耐性キーカプセル化のためにハイブリダイズした3層暗号プロトコルで、(ii) 格子ベースのZero-Knowledge Proofsを検証可能なemph用に導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative training of medical AI models across hospitals without centralizing patient data. However, the exchange of model updates exposes critical vulnerabilities: gradient inversion attacks can reconstruct patient information, Byzantine clients can poison the global model, and the \emph{Harvest Now, Decrypt Later} (HNDL) threat renders today's encrypted traffic vulnerable to future quantum adversaries.We introduce \textbf{ZKFL-PQ} (\emph{Zero-Knowledge Federated Learning, Post-Quantum}), a three-tiered cryptographic protocol that hybridizes (i) ML-KEM (FIPS~203) for quantum-resistant key encapsulation, (ii) lattice-based Zero-Knowledge Proofs for verifiable \emph{norm-constrained} gradient integrity, and (iii) BFV homomorphic encryption for privacy-preserving aggregation. We formalize the security model and prove correctness and zero-knowledge properties under the Module-LWE, Ring-LWE, and SIS assumptions \emph{in the classical random oracle model}. We evaluate ZKFL-PQ on synthetic medical imaging data across 5 federated clients over 10 training rounds. Our protocol achieves \textbf{100\% rejection of norm-violating updates} while maintaining model accuracy at 100\%, compared to a catastrophic drop to 23\% under standard FL. The computational overhead (factor $\sim$20$\times$) is analyzed and shown to be compatible with clinical research workflows operating on daily or weekly training cycles. We emphasize that the current defense guarantees rejection of large-norm malicious updates; robustness against subtle low-norm or directional poisoning remains future work.
- Abstract(参考訳): Federated Learning (FL)は、患者データを集中することなく、病院全体で医療AIモデルの協調トレーニングを可能にする。
しかし、モデル更新の交換は重大な脆弱性を露呈する: 勾配反転攻撃は患者の情報を再構築し、ビザンチンのクライアントはグローバルモデルに毒を盛る。そして、現在の暗号化されたトラフィックを、将来の量子敵に脆弱な形でレンダリングする \textbf{ZKFL-PQ} (\emph{Zero-Knowledge Federated Learning, Post-Quantum}) をハイブリダイズする3層暗号化プロトコルである。
(i)ML-KEM(FIPS~203)による量子抵抗性鍵カプセル化
(II) 検証可能な 'emph{norm-constrained} 勾配完全性に対する格子ベースのゼロ知識証明、および
三 プライバシー保護アグリゲーションのためのBFV同型暗号化
セキュリティモデルを形式化し、モジュール-LWE, Ring-LWE, SIS の仮定 \emph{in the classical random oracle model} の下で正当性およびゼロ知識性を証明する。
人工医用画像データに対するZKFL-PQの評価を行った。
本プロトコルは,標準FL下での破滅的な低下に対して,モデル精度を100\%に維持しながら,標準違反更新の「textbf{100\%拒否」を実現している。
計算オーバーヘッド (factor $\sim$20$\times$) は分析され、毎日または毎週のトレーニングサイクルで動作する臨床研究ワークフローと互換性があることが示されている。
我々は、現在の防衛は、大ノームの悪意のある更新を拒否することを保証し、微妙な低ノームや指向性中毒に対する堅牢性は、今後も継続する、と強調する。
関連論文リスト
- Understanding the Resource Cost of Fully Homomorphic Encryption in Quantum Federated Learning [1.1666234644810893]
量子フェデレートラーニング(QFL)において、パラメータの同型暗号化が解法として提案されている。
我々は,QFLセットアップにおいてFHE(Fully Homomorphic Encryption)によって導入されたオーバーヘッドを評価し,実世界のアプリケーションへの適用性を評価する。
論文 参考訳(メタデータ) (2026-03-03T09:36:55Z) - Privacy-Preserving Federated Vision Transformer Learning Leveraging Lightweight Homomorphic Encryption in Medical AI [5.6285415648839425]
コラボレーション機械学習は、多様なデータセットを活用することによって診断精度を向上させるが、HIPAAのようなプライバシー規制は、患者の直接的なデータ共有を禁止している。
本稿では,視覚変換器 (ViT) と同型暗号化 (HE) を組み合わせた多施設組織分類のためのプライバシー保護型フェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-26T02:27:40Z) - AdeptHEQ-FL: Adaptive Homomorphic Encryption for Federated Learning of Hybrid Classical-Quantum Models with Dynamic Layer Sparing [0.0]
フェデレートラーニング(FL)は、モデルパフォーマンス、プライバシ保護、通信効率のバランスをとる上で、固有の課題に直面します。
本稿では,CNN-PQCアーキテクチャを統合した分散古典量子FLフレームワークであるAdeptHEQ-FLを紹介する。
我々は、正式なプライバシー保証を確立し、収束分析を提供し、CIFAR-10、SVHN、Fashion-MNISTデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2025-07-09T22:29:02Z) - A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーテッド・ラーニング(FL)は、医療におけるプライバシー保護機械学習にとって重要なアプローチである。
これらのシステムの現在のセキュリティ実装は、基本的なトレードオフに直面している。
我々は、選択的同型暗号化、差分プライバシー、ビットワイズスクランブルを戦略的に組み合わせて堅牢なセキュリティを実現する新しいアプローチであるFast and Secure Federated Learningを提示する。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - Enhancing Quantum Security over Federated Learning via Post-Quantum Cryptography [38.77135346831741]
フェデレートラーニング(FL)は、エッジデバイスに機械学習モデルをデプロイするための標準的なアプローチの1つになっている。
現在のデジタルシグネチャアルゴリズムは、これらの通信されたモデルの更新を保護することができるが、大規模な量子コンピューティングの時代には量子セキュリティを確保することができない。
本研究では,これらの3つのNIST標準化PQCアルゴリズムがFLプロシージャ内のデジタル署名に与える影響を実験的に検討する。
論文 参考訳(メタデータ) (2024-09-06T22:02:08Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。