論文の概要: Privacy-Preserving Federated Vision Transformer Learning Leveraging Lightweight Homomorphic Encryption in Medical AI
- arxiv url: http://arxiv.org/abs/2511.20983v1
- Date: Wed, 26 Nov 2025 02:27:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.923556
- Title: Privacy-Preserving Federated Vision Transformer Learning Leveraging Lightweight Homomorphic Encryption in Medical AI
- Title(参考訳): 医用AIにおける軽量同型暗号化を活用したプライバシ保護型フェデレーション・ビジョン・トランスフォーマー学習
- Authors: Al Amin, Kamrul Hasan, Liang Hong, Sharif Ullah,
- Abstract要約: コラボレーション機械学習は、多様なデータセットを活用することによって診断精度を向上させるが、HIPAAのようなプライバシー規制は、患者の直接的なデータ共有を禁止している。
本稿では,視覚変換器 (ViT) と同型暗号化 (HE) を組み合わせた多施設組織分類のためのプライバシー保護型フェデレーション学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.6285415648839425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative machine learning across healthcare institutions promises improved diagnostic accuracy by leveraging diverse datasets, yet privacy regulations such as HIPAA prohibit direct patient data sharing. While federated learning (FL) enables decentralized training without raw data exchange, recent studies show that model gradients in conventional FL remain vulnerable to reconstruction attacks, potentially exposing sensitive medical information. This paper presents a privacy-preserving federated learning framework combining Vision Transformers (ViT) with homomorphic encryption (HE) for secure multi-institutional histopathology classification. The approach leverages the ViT CLS token as a compact 768-dimensional feature representation for secure aggregation, encrypting these tokens using CKKS homomorphic encryption before transmission to the server. We demonstrate that encrypting CLS tokens achieves a 30-fold communication reduction compared to gradient encryption while maintaining strong privacy guarantees. Through evaluation on a three-client federated setup for lung cancer histopathology classification, we show that gradients are highly susceptible to model inversion attacks (PSNR: 52.26 dB, SSIM: 0.999, NMI: 0.741), enabling near-perfect image reconstruction. In contrast, the proposed CLS-protected HE approach prevents such attacks while enabling encrypted inference directly on ciphertexts, requiring only 326 KB of encrypted data transmission per aggregation round. The framework achieves 96.12 percent global classification accuracy in the unencrypted domain and 90.02 percent in the encrypted domain.
- Abstract(参考訳): 医療機関間での協調機械学習は、多様なデータセットを活用することで診断精度を向上させることを約束するが、HIPAAのようなプライバシー規制は患者の直接的なデータ共有を禁止している。
FL(Federated Learning)は生データ交換のない分散学習を可能にするが、最近の研究では、従来のFLのモデル勾配は再建攻撃に弱いままであり、機密性の高い医療情報を漏洩させる可能性があることが示されている。
本稿では,視覚変換器 (ViT) と同型暗号化 (HE) を組み合わせた多施設組織分類のためのプライバシー保護型フェデレーション学習フレームワークを提案する。
このアプローチでは、セキュアアグリゲーションのために768次元のコンパクトな特徴表現としてViT CLSトークンを活用し、サーバに送信する前にCKKS準同型暗号化を使用してこれらのトークンを暗号化する。
CLSトークンの暗号化は、プライバシー保証を強く保ちながら、グラデーション暗号化に比べて30倍の通信削減を実現することを実証する。
肺がん病理組織分類のための3サイクルのフェデレート・セットアップの評価を通じて、勾配はモデル逆転攻撃(PSNR:52.26 dB, SSIM:0.999, NMI: 0.741)に高い感受性を示し、ほぼ完全な画像再構成を可能にした。
対照的に、CLSで保護されたHEアプローチでは、暗号化された推論を暗号文で直接可能とし、アグリゲーションラウンド当たりの暗号化データ送信量はわずか326KBである。
このフレームワークは、暗号化されていないドメインで96.12パーセント、暗号化されていないドメインで90.02パーセントのグローバルな分類精度を達成する。
関連論文リスト
- Vision Token Masking Alone Cannot Prevent PHI Leakage in Medical Document OCR: A Systematic Evaluation [0.0]
視覚言語モデル(VLM)は、医療環境における光学的文字認識(OCR)のためにますます多くデプロイされている。
本研究は、DeepSeek-OCRを用いた医療文書OCRのプライバシー保護機構として、推論時視覚トークンマスキングを初めて体系的に評価したものである。
論文 参考訳(メタデータ) (2025-11-23T03:45:22Z) - MedHE: Communication-Efficient Privacy-Preserving Federated Learning with Adaptive Gradient Sparsification for Healthcare [0.0]
本稿では,適応勾配スペーシフィケーションとCKKSの同型暗号化を組み合わせた新しいフレームワークであるMedHEについて述べる。
提案手法では, モデルユーティリティを保ちながら, 97.5パーセントの通信削減を実現し, エラー補償を施した動的しきい値機構を導入している。
論文 参考訳(メタデータ) (2025-11-12T06:50:48Z) - A Vision-Language Pre-training Model-Guided Approach for Mitigating Backdoor Attacks in Federated Learning [43.847168319564844]
視覚言語事前学習モデルのゼロショット学習機能を利用したFLバックドアディフェンスフレームワークCLIP-Fedを提案する。
本計画では, 防衛効果に課される非IIDの限界を克服し, 事前集約・後防衛戦略を統合する。
論文 参考訳(メタデータ) (2025-08-14T03:39:54Z) - Conformal Prediction for Privacy-Preserving Machine Learning [83.88591755871734]
AESで暗号化されたMNISTデータセットの変種を用いて、暗号化されたドメインに直接適用しても、コンフォーマル予測法が有効であることを示す。
我々の研究は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
論文 参考訳(メタデータ) (2025-07-13T15:29:14Z) - A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーテッド・ラーニング(FL)は、医療におけるプライバシー保護機械学習にとって重要なアプローチである。
これらのシステムの現在のセキュリティ実装は、基本的なトレードオフに直面している。
我々は、選択的同型暗号化、差分プライバシー、ビットワイズスクランブルを戦略的に組み合わせて堅牢なセキュリティを実現する新しいアプローチであるFast and Secure Federated Learningを提示する。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - Secure Semantic Communication With Homomorphic Encryption [52.5344514499035]
本稿では,SemCom に準同型暗号を適用する可能性について検討する。
タスク指向のSemComスキームを提案する。
論文 参考訳(メタデータ) (2025-01-17T13:26:14Z) - A Multiparty Homomorphic Encryption Approach to Confidential Federated Kaplan Meier Survival Analysis [0.0]
私たちはaを提案します。
マルチパーティの同型暗号化ベースのフレームワーク。
プライバシー保護連合カプラン-マイエサバイバル分析
我々のフレームワークは、暗号化されたサバイバル推定を、公式なユーティリティーロス境界によって支持された集中的な結果と密接に一致させることを保証する。
論文 参考訳(メタデータ) (2024-12-29T15:17:42Z) - ViT Enhanced Privacy-Preserving Secure Medical Data Sharing and Classification [8.140412831443454]
本研究では,ブロックピクセル操作をベースとした,学習可能な暗号化手法によるセキュアなフレームワークを導入し,それをViT(Vision Transformer)と統合する。
提案したフレームワークは、キー毎に独自のスクランブルパターンを作成し、リードビット攻撃と最小差攻撃に対して堅牢なパフォーマンスを提供することにより、データのプライバシとセキュリティを保証する。
論文 参考訳(メタデータ) (2024-11-08T16:33:20Z) - Perfectly Secure Steganography Using Minimum Entropy Coupling [60.154855689780796]
カチン1998のステガノグラフィー情報理論モデルでは, ステガノグラフィーの術式は完全に安全であることが示されている。
また, 完全セキュアな手順の中で, 最小エントロピー結合によって誘導される場合に限, 情報スループットが最大になることを示す。
論文 参考訳(メタデータ) (2022-10-24T17:40:07Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Gradient Obfuscation Gives a False Sense of Security in Federated
Learning [41.36621813381792]
フェデレート学習における画像分類課題を対象とした新しいデータ再構成攻撃フレームワークを提案する。
従来の研究とは対照的に、プライバシー強化は勾配圧縮の副産物として扱われるべきではない。
論文 参考訳(メタデータ) (2022-06-08T13:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。