論文の概要: Enabling Privacy-Preserving and Publicly Auditable Federated Learning
- arxiv url: http://arxiv.org/abs/2405.04029v1
- Date: Tue, 7 May 2024 06:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 15:18:57.091688
- Title: Enabling Privacy-Preserving and Publicly Auditable Federated Learning
- Title(参考訳): プライバシ保護と公聴可能なフェデレーション学習の実現
- Authors: Huang Zeng, Anjia Yang, Jian Weng, Min-Rong Chen, Fengjun Xiao, Yi Liu, Ye Yao,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、プライベートデータセットを移動せずに複数の参加者によるモデルの共同トレーニングをサポートするため、広く注目を集めている。
1) トレーニングプロセスが第三者によって公的に監査されるようにする方法,2) 悪意ある参加者のトレーニングへの影響を避ける方法,3) 個人的勾配やモデルが第三者に漏れないようにする方法,の3つの主要な課題を考察する。
- 参考スコア(独自算出の注目度): 7.919312760566037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has attracted widespread attention because it supports the joint training of models by multiple participants without moving private dataset. However, there are still many security issues in FL that deserve discussion. In this paper, we consider three major issues: 1) how to ensure that the training process can be publicly audited by any third party; 2) how to avoid the influence of malicious participants on training; 3) how to ensure that private gradients and models are not leaked to third parties. Many solutions have been proposed to address these issues, while solving the above three problems simultaneously is seldom considered. In this paper, we propose a publicly auditable and privacy-preserving federated learning scheme that is resistant to malicious participants uploading gradients with wrong directions and enables anyone to audit and verify the correctness of the training process. In particular, we design a robust aggregation algorithm capable of detecting gradients with wrong directions from malicious participants. Then, we design a random vector generation algorithm and combine it with zero sharing and blockchain technologies to make the joint training process publicly auditable, meaning anyone can verify the correctness of the training. Finally, we conduct a series of experiments, and the experimental results show that the model generated by the protocol is comparable in accuracy to the original FL approach while keeping security advantages.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、プライベートデータセットを移動せずに複数の参加者によるモデルの共同トレーニングをサポートするため、広く注目を集めている。
しかし、FLには議論に値するセキュリティ問題がまだたくさんある。
本稿では,3つの主要な課題について考察する。
1) 第三者による公開監査の実施を確実にする方法
2 悪意ある参加者が研修に影響を及ぼすのを避ける方法
3) プライベートなグラデーションとモデルが第三者にリークされないようにする方法。
これらの問題に対処するために多くの解が提案されているが、上記の3つの問題を同時に解くことはめったにない。
本稿では、不正な方向で勾配をアップロードする悪意のある参加者に対して抵抗性があり、誰でもトレーニングプロセスの正しさを監査し検証できる、公的な監査可能かつプライバシー保護型フェデレーション学習方式を提案する。
特に、悪意のある参加者から間違った方向の勾配を検出できる頑健な集約アルゴリズムを設計する。
そして、ランダムなベクトル生成アルゴリズムを設計し、それをゼロ共有とブロックチェーン技術と組み合わせて、共同トレーニングプロセスを公開監査可能にする。
最後に、一連の実験を行い、実験結果から、プロトコルによって生成されたモデルは、セキュリティ上の優位性を保ちながら、元のFLアプローチに匹敵する精度を示す。
関連論文リスト
- SoK: Verifiable Cross-Silo FL [0.0]
検証可能なクロスサイロFLに関する知識の体系化を提案する。
我々は、様々なプロトコルを分析し、それらを分類に適合させ、それらの効率と脅威モデルと比較する。
論文 参考訳(メタデータ) (2024-10-11T07:39:35Z) - Efficient Vertical Federated Learning with Secure Aggregation [10.295508659999783]
本稿では,安全アグリゲーションのための最先端セキュリティモジュールを用いて,垂直FLを安全かつ効率的に訓練するための新しい設計を提案する。
我々は,同相暗号 (HE) と比較して9.1e2 3.8e4 の高速化を図りながら,本手法がトレーニング性能に影響を及ぼさないことを実証的に実証した。
論文 参考訳(メタデータ) (2023-05-18T18:08:36Z) - Incentivising the federation: gradient-based metrics for data selection and valuation in private decentralised training [15.233103072063951]
本研究では,個人トレーニングの参加者が共同学習モデルに最も有用なデータを選択するために,勾配情報を活用する方法について検討する。
これらの技術は、より厳密なプライバシー設定であっても、フェデレートされたクライアントに、原則化されたデータ選択のためのツールを提供することができることを示す。
論文 参考訳(メタデータ) (2023-05-04T15:44:56Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - VeriFi: Towards Verifiable Federated Unlearning [59.169431326438676]
フェデレートラーニング(FL)は、参加者がプライベートデータを共有せずに強力なモデルを共同でトレーニングする、協調学習パラダイムである。
参加者を去るには、グローバルモデルからプライベートデータを削除するよう要求する権利がある。
フェデレートされた未学習と検証を統合した統合フレームワークであるVeriFiを提案する。
論文 参考訳(メタデータ) (2022-05-25T12:20:02Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。