論文の概要: AnoFel: Supporting Anonymity for Privacy-Preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2306.06825v1
- Date: Mon, 12 Jun 2023 02:25:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 16:17:26.267613
- Title: AnoFel: Supporting Anonymity for Privacy-Preserving Federated Learning
- Title(参考訳): AnoFel: プライバシ保護フェデレーション学習のための匿名サポート
- Authors: Ghada Almashaqbeh, Zahra Ghodsi
- Abstract要約: フェデレートされた学習により、ユーザーはプライベートデータセット上で機械学習モデルを協調的にトレーニングできる。
セキュアアグリゲーションプロトコルは、ローカルデータセットに関する情報漏洩を軽減するために使用される。
しかし、この設定は、トレーニングイテレーションにおけるユーザの参加をいまだリークしているため、センシティブな場合もある。
AnoFelは、フェデレートラーニングにおける個人的および匿名的動的参加をサポートする最初のフレームワークである。
- 参考スコア(独自算出の注目度): 4.086517346598676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables users to collaboratively train a machine learning
model over their private datasets. Secure aggregation protocols are employed to
mitigate information leakage about the local datasets. This setup, however,
still leaks the participation of a user in a training iteration, which can also
be sensitive. Protecting user anonymity is even more challenging in dynamic
environments where users may (re)join or leave the training process at any
point of time. In this paper, we introduce AnoFel, the first framework to
support private and anonymous dynamic participation in federated learning.
AnoFel leverages several cryptographic primitives, the concept of anonymity
sets, differential privacy, and a public bulletin board to support anonymous
user registration, as well as unlinkable and confidential model updates
submission. Additionally, our system allows dynamic participation, where users
can join or leave at any time, without needing any recovery protocol or
interaction. To assess security, we formalize a notion for privacy and
anonymity in federated learning, and formally prove that AnoFel satisfies this
notion. To the best of our knowledge, our system is the first solution with
provable anonymity guarantees. To assess efficiency, we provide a concrete
implementation of AnoFel, and conduct experiments showing its ability to
support learning applications scaling to a large number of clients. For an
MNIST classification task with 512 clients, the client setup takes less than 3
sec, and a training iteration can be finished in 3.2 sec. We also compare our
system with prior work and demonstrate its practicality for contemporary
learning tasks.
- Abstract(参考訳): フェデレートされた学習により、ユーザーはプライベートデータセット上で機械学習モデルを協調的にトレーニングできる。
セキュアアグリゲーションプロトコルを使用して、ローカルデータセットに関する情報漏洩を軽減する。
しかし、この設定は、トレーニングイテレーションにおけるユーザの参加をいまだリークしているため、センシティブな場合もある。
ユーザの匿名性を保護することは、ユーザが任意のタイミングでトレーニングプロセスに参加したり、離れたりできる動的環境においてさらに難しい。
本稿では,federated learningにおける個人および匿名の動的参加を支援する最初のフレームワークであるanofelを紹介する。
AnoFelは、いくつかの暗号化プリミティブ、匿名性セットの概念、差分プライバシー、匿名ユーザ登録をサポートする公開掲示板、およびリンク不能で機密性の高いモデル更新の提出を活用する。
さらに,リカバリプロトコルやインタラクションを必要とせずに,ユーザがいつでも参加あるいは離脱できる動的参加を可能にする。
セキュリティを評価するために,フェデレーション学習におけるプライバシーと匿名性の概念を形式化し,AnoFelがこの概念を満足していることを正式に証明する。
我々の知る限りでは、我々のシステムは証明可能な匿名性を保証する最初のソリューションである。
効率性を評価するため、AnoFelの具体的な実装を提供し、多数のクライアントにスケールする学習アプリケーションをサポートする能力を示す実験を行う。
512のクライアントを持つmnist分類タスクでは、クライアントの設定は3秒未満で、トレーニングイテレーションは3.2秒で完了する。
また,本システムと先行研究を比較し,現代学習課題の実用性を示す。
関連論文リスト
- Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Fingerprint Attack: Client De-Anonymization in Federated Learning [44.77305865061609]
フェデレートラーニング(Federated Learning)は、参加者が中央サーバと相互に信頼していない設定において、データ共有なしで協調的なトレーニングを可能にする。
そこで本稿では,サーバに送信される勾配に対して,新たな指紋認証攻撃を提案することで,匿名性を保証するのにそのような防御が適切かどうかを検討する。
論文 参考訳(メタデータ) (2023-09-12T11:10:30Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication [34.6454670154373]
本稿では,ユーザデータの匿名性を保護し,データのセキュリティを維持する新しいフェデレートラーニング(FL)手法を提案する。
ユーザプライバシとデータセキュリティを維持しながら,ユーザ認証の精度を大幅に向上させる実験を行った。
論文 参考訳(メタデータ) (2022-11-10T15:51:04Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - PrivacyFL: A simulator for privacy-preserving and secure federated
learning [2.578242050187029]
フェデレートラーニング(Federated Learning)とは、分散クライアントが共同で機械学習モデルを学ぶことを可能にするテクニックである。
PrivacyFLはプライバシ保護とセキュアなフェデレーション学習シミュレータである。
論文 参考訳(メタデータ) (2020-02-19T20:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。