論文の概要: A Privacy-Preserving Federated Learning Method with Homomorphic Encryption in Omics Data
- arxiv url: http://arxiv.org/abs/2511.06064v1
- Date: Sat, 08 Nov 2025 16:18:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.734319
- Title: A Privacy-Preserving Federated Learning Method with Homomorphic Encryption in Omics Data
- Title(参考訳): Omicsデータにおける同型暗号化を用いたプライバシ保護フェデレーション学習手法
- Authors: Yusaku Negoya, Feifei Cui, Zilong Zhang, Miao Pan, Tomoaki Ohtsuki, Aohan Li,
- Abstract要約: ホモモルフィック暗号化(HE)は、暗号化されたデータの計算を可能にし、DP誘起ノイズなしで暗号化された勾配の集約を可能にする。
HEを導入し,プライバシ保存機械学習(PPML)-Hybrid法を提案する。
提案手法は,HEのみと比較して計算時間を大幅に削減しながら,同等の予測精度を実現する。
- 参考スコア(独自算出の注目度): 19.04813252998036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omics data is widely employed in medical research to identify disease mechanisms and contains highly sensitive personal information. Federated Learning (FL) with Differential Privacy (DP) can ensure the protection of omics data privacy against malicious user attacks. However, FL with the DP method faces an inherent trade-off: stronger privacy protection degrades predictive accuracy due to injected noise. On the other hand, Homomorphic Encryption (HE) allows computations on encrypted data and enables aggregation of encrypted gradients without DP-induced noise can increase the predictive accuracy. However, it may increase the computation cost. To improve the predictive accuracy while considering the computational ability of heterogeneous clients, we propose a Privacy-Preserving Machine Learning (PPML)-Hybrid method by introducing HE. In the proposed PPML-Hybrid method, clients distributed select either HE or DP based on their computational resources, so that HE clients contribute noise-free updates while DP clients reduce computational overhead. Meanwhile, clients with high computational resources clients can flexibly adopt HE or DP according to their privacy needs. Performance evaluation on omics datasets show that our proposed method achieves comparable predictive accuracy while significantly reducing computation time relative to HE-only. Additionally, it outperforms DP-only methods under equivalent or stricter privacy budgets.
- Abstract(参考訳): オミクスデータは、疾患のメカニズムを特定するために医学研究に広く使われており、非常に敏感な個人情報を含んでいる。
Federated Learning (FL) with Differential Privacy (DP) は、悪意のあるユーザ攻撃に対するオミクスデータのプライバシ保護を保証する。
しかし、DP方式のFLは固有のトレードオフに直面しており、より強力なプライバシー保護は注入ノイズによる予測精度を低下させる。
一方、ホモモルフィック暗号化(HE)では、暗号化されたデータの計算が可能であり、DP誘起ノイズを伴わずに暗号化された勾配の集約が可能であり、予測精度が向上する。
しかし、これは計算コストを増大させる可能性がある。
異種クライアントの計算能力を考慮して予測精度を向上させるため,HEを導入してプライバシ保存機械学習(PPML)-Hybrid法を提案する。
提案したPPML-Hybrid法では,クライアントは計算資源に基づいてHEまたはDPを選択するため,HEクライアントはノイズフリー更新に寄与し,DPクライアントは計算オーバーヘッドを削減する。
一方、高い計算リソースを持つクライアントは、プライバシのニーズに応じて、柔軟にHEまたはDPを採用することができる。
オミクスデータセットの性能評価の結果,提案手法はHEのみと比較して計算時間を著しく短縮するが,予測精度は同等であることがわかった。
さらに、DPのみの手法を同等またはより厳格なプライバシー予算で上回る。
関連論文リスト
- FedRE: Robust and Effective Federated Learning with Privacy Preference [20.969342596181246]
Federated Learning (FL) は、生データのプライバシー漏洩を防ぐために、分散トレーニングのためにサーバにグラデーションアグリゲーションを採用する。
プライベート情報は、クライアントからアップロードされたグラデーションの分析を通じて、依然として拡散することができる。
既存の手法では、各サンプルを同じメカニズムで摂動するだけで、実用的な問題を考慮できない。
論文 参考訳(メタデータ) (2025-05-08T01:50:27Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Enhancing Accuracy-Privacy Trade-off in Differentially Private Split Learning [2.2676798389997863]
Split Learning(SL)は、クライアントサーバ間で詳細なモデルを分散し、プライベートデータをローカルに保持することで、ユーザのデータプライバシを保護することを目的としている。
最近提案されたモデル反転攻撃は、スマッシュされたデータから元のデータを復元することができる。
ディファレンシャルプライバシ(DP)を採用する戦略では、スマッシュされたデータをある程度の精度の損失を犠牲にして保護する。
論文 参考訳(メタデータ) (2023-10-22T22:45:13Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - DP-InstaHide: Provably Defusing Poisoning and Backdoor Attacks with
Differentially Private Data Augmentations [54.960853673256]
混合や無作為な付加ノイズなどの強いデータ拡張は、わずかな精度のトレードオフに耐えながら、毒の攻撃を無効にする。
DP-InstaHideの厳密な分析によると、ミキサップは確かにプライバシー上の利点があり、kウェイミキサップによるトレーニングは、単純DPメカニズムよりも少なくともk倍強いDP保証が得られる。
論文 参考訳(メタデータ) (2021-03-02T23:07:31Z) - PRICURE: Privacy-Preserving Collaborative Inference in a Multi-Party
Setting [3.822543555265593]
本稿では,セキュアなマルチパーティ計算とディファレンシャルプライバシの補完的強みを組み合わせたシステムpricureを提案する。
PRICUREは、複数のモデルオーナー間のプライバシー保護共同予測を可能にします。
ベンチマーク医療画像分類データセットを含む4つのデータセットのニューラルネットワーク上でPRICUREを評価する。
論文 参考訳(メタデータ) (2021-02-19T05:55:53Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。