論文の概要: A Privacy-Centric Approach: Scalable and Secure Federated Learning Enabled by Hybrid Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2507.14853v1
- Date: Sun, 20 Jul 2025 07:46:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.092902
- Title: A Privacy-Centric Approach: Scalable and Secure Federated Learning Enabled by Hybrid Homomorphic Encryption
- Title(参考訳): ハイブリッド同型暗号化によるスケーラブルでセキュアなフェデレーション学習
- Authors: Khoa Nguyen, Tanveer Khan, Antonis Michalas,
- Abstract要約: Federated Learning(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にするため、プライバシに敏感なドメインに対して有望なアプローチである。
その可能性にもかかわらず、FLは特に通信オーバーヘッドとデータプライバシの観点から、重大な課題に直面している。
本研究では、対称暗号とHEを組み合わせた暗号プロトコルであるHybrid Homomorphic Encryption(HHE)をFLと効果的に統合し、通信とプライバシーの両方の課題に対処する方法について検討する。
- 参考スコア(独自算出の注目度): 2.853180143237022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training without sharing raw data, making it a promising approach for privacy-sensitive domains. Despite its potential, FL faces significant challenges, particularly in terms of communication overhead and data privacy. Privacy-preserving Techniques (PPTs) such as Homomorphic Encryption (HE) have been used to mitigate these concerns. However, these techniques introduce substantial computational and communication costs, limiting their practical deployment. In this work, we explore how Hybrid Homomorphic Encryption (HHE), a cryptographic protocol that combines symmetric encryption with HE, can be effectively integrated with FL to address both communication and privacy challenges, paving the way for scalable and secure decentralized learning system.
- Abstract(参考訳): Federated Learning(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にするため、プライバシに敏感なドメインに対して有望なアプローチである。
その可能性にもかかわらず、FLは特に通信オーバーヘッドとデータプライバシの観点から、重大な課題に直面している。
ホモモルフィック暗号化(HE)のようなプライバシ保護技術(PPT)は、これらの懸念を軽減するために使われてきた。
しかし、これらの技術は計算と通信のコストを大幅に削減し、実際の展開を制限している。
本研究では、対称暗号とHEを組み合わせた暗号プロトコルであるHybrid Homomorphic Encryption(HHE)をFLと効果的に統合して、通信とプライバシの両方の課題に対処し、スケーラブルでセキュアな分散学習システムを実現する方法について検討する。
関連論文リスト
- Enhancing Privacy in Semantic Communication over Wiretap Channels leveraging Differential Privacy [51.028047763426265]
セマンティック通信(SemCom)は,タスク関連情報に着目して伝送効率を向上させる。
セマンティックリッチなデータをセキュアでないチャネルで送信すると、プライバシのリスクが生じる。
本稿では,セマンティックなセマンティックな特徴を保護するために,差分プライバシー機構を統合した新しいSemComフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-23T08:42:44Z) - Secure Semantic Communication With Homomorphic Encryption [52.5344514499035]
本稿では,SemCom に準同型暗号を適用する可能性について検討する。
タスク指向のSemComスキームを提案する。
論文 参考訳(メタデータ) (2025-01-17T13:26:14Z) - A New Federated Learning Framework Against Gradient Inversion Attacks [17.3044168511991]
Federated Learning (FL)は、クライアントが生データを共有せずに機械学習モデルを集合的にトレーニングできるようにすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報がグラディエント・インバージョン・アタック(GIA)の対象であることが示されている。
論文 参考訳(メタデータ) (2024-12-10T04:53:42Z) - FL-DABE-BC: A Privacy-Enhanced, Decentralized Authentication, and Secure Communication for Federated Learning Framework with Decentralized Attribute-Based Encryption and Blockchain for IoT Scenarios [0.0]
本研究は,IoT環境におけるデータプライバシとセキュリティの向上を目的とした,高度な学習(FL)フレームワークを提案する。
我々は、分散属性ベースの暗号化(DABE)、同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、技術を統合する。
従来のFLとは異なり、当社のフレームワークはIoTデバイス上で、セキュアで分散化された認証と暗号化を可能にする。
論文 参考訳(メタデータ) (2024-10-26T19:30:53Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Federated Learning with Quantum Computing and Fully Homomorphic Encryption: A Novel Computing Paradigm Shift in Privacy-Preserving ML [4.92218040320554]
フェデレートラーニング(Federated Learning)は、複数の学習クライアントがプライベートデータを公開せずにモデル知識を共有できるようにする、従来の方法に代わるプライバシ保護手法である。
この研究は、古典層と量子層の両方を統合するフェデレート学習ニューラルネットワークアーキテクチャに完全同型暗号化スキームを適用した。
論文 参考訳(メタデータ) (2024-09-14T01:23:26Z) - Federated Learning is Better with Non-Homomorphic Encryption [1.4110007887109783]
Federated Learning(FL)は、生データを収集することなく、分散AIモデルのトレーニングを促進するパラダイムを提供する。
一般的な手法の1つは、ホモモルフィック暗号化(HE)を用いることである。
本稿では,置換型圧縮機と古典暗号を相乗化する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-04T17:37:41Z) - An Efficient and Multi-private Key Secure Aggregation for Federated Learning [41.29971745967693]
フェデレート学習のための効率的かつ多目的な鍵セキュアアグリゲーション手法を提案する。
具体的には、変種ElGamal暗号を巧みに修正し、同型加算演算を実現する。
高次元深層モデルパラメータに対しては,多次元データを1次元に圧縮する超増進シーケンスを導入する。
論文 参考訳(メタデータ) (2023-06-15T09:05:36Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。