論文の概要: Enabling Privacy-preserving Model Evaluation in Federated Learning via Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2403.14428v2
- Date: Mon, 11 Aug 2025 12:36:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.028977
- Title: Enabling Privacy-preserving Model Evaluation in Federated Learning via Fully Homomorphic Encryption
- Title(参考訳): 完全同型暗号化によるフェデレーション学習におけるプライバシ保護モデル評価の実現
- Authors: Cem Ata Baykara, Ali Burak Ünal, Mete Akgün,
- Abstract要約: センシティブなデータを集中化せずにモデルを協調的にトレーニングする能力によって、フェデレートラーニングが急速に普及している。
評価フェーズでは、文献で適切に対処されていない重要なプライバシーリスクが提示される。
完全同型暗号を利用した新しい評価手法を提案する。
- 参考スコア(独自算出の注目度): 1.9662978733004604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has become increasingly widespread due to its ability to train models collaboratively without centralizing sensitive data. While most research on FL emphasizes privacy-preserving techniques during training, the evaluation phase also presents significant privacy risks that have not been adequately addressed in the literature. In particular, the state-of-the-art solution for computing the area under the curve (AUC) in FL systems employs differential privacy, which not only fails to protect against a malicious aggregator but also suffers from severe performance degradation on smaller datasets. To overcome these limitations, we propose a novel evaluation method that leverages fully homomorphic encryption. To the best of our knowledge, this is the first work to apply FHE to privacy-preserving model evaluation in federated learning while providing verifiable security guarantees. In our approach, clients encrypt their true-positive and false-positive counts based on predefined thresholds and submit them to an aggregator, which then performs homomorphic operations to compute the global AUC without ever seeing intermediate or final results in plaintext. We offer two variants of our protocol: one secure against a semi-honest aggregator and one that additionally detects and prevents manipulations by a malicious aggregator. Besides providing verifiable security guarantees, our solution achieves superior accuracy across datasets of any size and distribution, eliminating the performance issues faced by the existing state-of-the-art method on small datasets and its runtime is negligibly small and independent of the test-set size. Experimental results confirm that our method can compute the AUC among 100 parties in under two seconds with near-perfect (99.93%) accuracy while preserving complete data privacy.
- Abstract(参考訳): センシティブなデータを集中化せずにモデルを協調的にトレーニングする能力によって、フェデレートラーニングが急速に普及している。
FLに関するほとんどの研究は、トレーニング中のプライバシ保護技術を強調しているが、評価フェーズでは、文献で適切に対処されていない重要なプライバシリスクも提示されている。
特に、FLシステムにおける曲線(AUC)の下の領域を計算するための最先端のソリューションでは、差分プライバシーが採用されている。
これらの制限を克服するために,完全同型暗号を利用した新しい評価手法を提案する。
我々の知る限りでは、FHEをフェデレーション学習におけるプライバシ保護モデル評価に適用し、検証可能なセキュリティ保証を提供する最初の試みである。
提案手法では, クライアントは事前定義されたしきい値に基づいて真陽性および偽陽性のカウントを暗号化してアグリゲータに送信する。
プロトコルには2つのバリエーションがある: 1つは半正直なアグリゲータに対して安全であり、もう1つは悪意のあるアグリゲータによる操作を検知し、防止する。
検証可能なセキュリティ保証の提供に加えて、我々のソリューションは、任意のサイズと分布のデータセット間で優れた精度を実現し、小さなデータセット上で既存の最先端メソッドが直面するパフォーマンス上の問題を取り除く。
実験結果から, 完全データプライバシーを維持しつつ, ほぼ完全(99.93%)の精度でAUCを2秒以内で計算できることが確認された。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Benchmarking Federated Machine Unlearning methods for Tabular Data [9.30408906787193]
マシンアンラーニングにより、モデルは要求時に特定のデータを忘れることができる。
本稿では,フェデレートされた環境での機械学習手法のベンチマークに関する先駆的な研究について述べる。
機械学習、ランダムフォレスト、ロジスティック回帰モデルの両方を用いて、この機能とインスタンスレベルでのアンラーニングについて検討する。
論文 参考訳(メタデータ) (2025-04-01T15:53:36Z) - Towards Privacy-Preserving Data-Driven Education: The Potential of Federated Learning [0.0]
本稿では,教育データ予測のためのフェデレーション学習の実験的検討を行った。
その結果,フェデレーション学習が予測精度に匹敵するものであることが示唆された。
敵対的攻撃の下では、フェデレーション学習は非フェデレーション設定よりもレジリエンスが高いことを示す。
論文 参考訳(メタデータ) (2025-03-16T14:37:32Z) - Privacy-Preserved Automated Scoring using Federated Learning for Educational Research [1.2556373621040728]
本研究では,教育評価における自動スコアリングのための統合学習フレームワークを提案する。
生徒の反応はエッジデバイス上でローカルに処理され、最適化されたモデルパラメータのみが中央集約サーバと共有される。
本研究では,9つの中学校における評価データを用いて,従来の学習モデルと統合学習に基づくスコアリングモデルの精度を比較した。
論文 参考訳(メタデータ) (2025-03-12T19:06:25Z) - DWFL: Enhancing Federated Learning through Dynamic Weighted Averaging [2.499907423888049]
本稿では,タンパク質配列分類のためのディープフィードフォワードニューラルネットワークに基づく強化フェデレーション学習法を提案する。
本稿では,動的重み付き連合学習(DWFL)について紹介する。
DWFLの有効性を評価するために,実世界のタンパク質配列データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-11-07T20:24:23Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [94.13848736705575]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - An Empirical Study of Efficiency and Privacy of Federated Learning
Algorithms [2.994794762377111]
今日の世界では、IoTネットワークの急速な拡大とスマートデバイスの普及により、相当量の異種データが生成される。
このデータを効果的に扱うためには、プライバシーと効率の両立を保証するために高度なデータ処理技術が必要である。
フェデレーション学習は、モデルをローカルにトレーニングし、データをプライバシを保存するためにサーバに集約する分散学習手法として登場した。
論文 参考訳(メタデータ) (2023-12-24T00:13:41Z) - Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - LAVA: Data Valuation without Pre-Specified Learning Algorithms [20.578106028270607]
我々は、下流学習アルゴリズムに不利な方法でトレーニングデータを評価できる新しいフレームワークを導入する。
本研究では,訓練と検証セット間の非伝統的なクラスワイドワッサースタイン距離に基づいて,トレーニングセットに関連する検証性能のプロキシを開発する。
距離は、特定のリプシッツ条件下での任意のモデルに対する検証性能の上限を特徴付けることを示す。
論文 参考訳(メタデータ) (2023-04-28T19:05:16Z) - Balanced Self-Paced Learning for AUC Maximization [88.53174245457268]
既存のセルフパッチ方式は、ポイントワイズAUCに限られている。
我々のアルゴリズムは閉形式解に基づいて定常点に収束する。
論文 参考訳(メタデータ) (2022-07-08T02:09:32Z) - Precision-Weighted Federated Learning [1.8160945635344528]
フェデレート学習環境で訓練されたモデルのパラメータの重み付け平均を計算する際に,勾配のばらつきを考慮した新しいアルゴリズムを提案する。
本手法は,2つの異なるデータ分割戦略 (IID/non-IID) を持つ標準画像分類データセットを用いて,資源制約環境下での手法の性能と速度を測定した。
論文 参考訳(メタデータ) (2021-07-20T17:17:10Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。