論文の概要: FLiP: Privacy-Preserving Federated Learning based on the Principle of Least Privileg
- arxiv url: http://arxiv.org/abs/2410.19548v2
- Date: Mon, 28 Oct 2024 12:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:21:57.414828
- Title: FLiP: Privacy-Preserving Federated Learning based on the Principle of Least Privileg
- Title(参考訳): FLiP:極秘原則に基づくプライバシ保護フェデレーション学習
- Authors: ShiMao Xu, Xiaopeng Ke, Xing Su, Shucheng Li, Hao Wu, Sheng Zhong, Fengyuan Xu,
- Abstract要約: フェデレートラーニング(FL)では、生のデータの代わりに知識を共有することで、モデルのトレーニングを高精度に行うことができる。
トレーニング中、ユーザーは共有されている知識をコントロールできなくなり、データプライバシの深刻な問題を引き起こす。
FLトレーニングに最小特権(PoLP)の原則を導入することを目的としたFLiPを提案する。
- 参考スコア(独自算出の注目度): 9.60829979241686
- License:
- Abstract: Federated Learning (FL) allows users to share knowledge instead of raw data to train a model with high accuracy. Unfortunately, during the training, users lose control over the knowledge shared, which causes serious data privacy issues. We hold that users are only willing and need to share the essential knowledge to the training task to obtain the FL model with high accuracy. However, existing efforts cannot help users minimize the shared knowledge according to the user intention in the FL training procedure. This work proposes FLiP, which aims to bring the principle of least privilege (PoLP) to FL training. The key design of FLiP is applying elaborate information reduction on the training data through a local-global dataset distillation design. We measure the privacy performance through attribute inference and membership inference attacks. Extensive experiments show that FLiP strikes a good balance between model accuracy and privacy protection.
- Abstract(参考訳): フェデレートラーニング(FL)では、生のデータの代わりに知識を共有することで、モデルのトレーニングを高精度に行うことができる。
残念ながら、トレーニング中に共有される知識のコントロールを失うため、データプライバシの深刻な問題が発生します。
我々は,FLモデルを高精度に取得するために,学習課題に不可欠な知識を共有する必要があることを留意する。
しかし、既存の取り組みは、FLトレーニング手順におけるユーザの意図に応じた共有知識の最小化には役に立たない。
FLトレーニングに最小特権(PoLP)の原則を導入することを目的としたFLiPを提案する。
FLiPの鍵となる設計は、ローカル・グロバル・データセット蒸留設計により、トレーニングデータに精巧な情報還元を適用することである。
属性推論およびメンバシップ推論攻撃によるプライバシパフォーマンスの測定を行う。
大規模な実験により、FLiPはモデル精度とプライバシ保護のバランスが良好であることが示されている。
関連論文リスト
- Federated Unlearning for Human Activity Recognition [11.287645073129108]
本稿では,クライアントのトレーニングデータの一部を選択的に除去することで,FL HARモデルを洗練するための軽量マシンアンラーニング手法を提案する。
本手法は,テキストリトレーニング手法に匹敵する非学習精度を実現し,数十~数千の高速化を実現する。
論文 参考訳(メタデータ) (2024-01-17T15:51:36Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Privacy Assessment of Federated Learning using Private Personalized
Layers [0.9023847175654603]
Federated Learning(FL)は、データを共有することなく、複数の参加者にまたがって学習モデルをトレーニングするコラボレーティブスキームである。
プライベートなパーソナライズされたレイヤを用いてFLスキームの実用性とプライバシのトレードオフを定量化する。
論文 参考訳(メタデータ) (2021-06-15T11:40:16Z) - Private Cross-Silo Federated Learning for Extracting Vaccine Adverse
Event Mentions [0.7349727826230862]
Federated Learning(FL)は、ユーザーが物理的にデータを共有せずにグローバルモデルを共同トレーニングするためのゴト分散トレーニングパラダイムです。
FLベースのトレーニングで得られたさまざまな利点の次元の包括的な実証的分析を紹介します。
ローカルDPは,グローバルモデルの予測精度を著しく損なう可能性を示し,ユーザによるフェデレーションへの参加を阻害する。
論文 参考訳(メタデータ) (2021-03-12T19:20:33Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。