論文の概要: Efficient and Privacy Preserving Group Signature for Federated Learning
- arxiv url: http://arxiv.org/abs/2207.05297v1
- Date: Tue, 12 Jul 2022 04:12:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 15:51:59.018558
- Title: Efficient and Privacy Preserving Group Signature for Federated Learning
- Title(参考訳): フェデレート学習のための効率的・プライバシー保護グループ署名
- Authors: Sneha Kanchan, Jae Won Jang, Jun Yong Yoon, Bong Jun Choi
- Abstract要約: Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
- 参考スコア(独自算出の注目度): 2.121963121603413
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) is a Machine Learning (ML) technique that aims to
reduce the threats to user data privacy. Training is done using the raw data on
the users' device, called clients, and only the training results, called
gradients, are sent to the server to be aggregated and generate an updated
model. However, we cannot assume that the server can be trusted with private
information, such as metadata related to the owner or source of the data. So,
hiding the client information from the server helps reduce privacy-related
attacks. Therefore, the privacy of the client's identity, along with the
privacy of the client's data, is necessary to make such attacks more difficult.
This paper proposes an efficient and privacy-preserving protocol for FL based
on group signature. A new group signature for federated learning, called GSFL,
is designed to not only protect the privacy of the client's data and identity
but also significantly reduce the computation and communication costs
considering the iterative process of federated learning. We show that GSFL
outperforms existing approaches in terms of computation, communication, and
signaling costs. Also, we show that the proposed protocol can handle various
security attacks in the federated learning environment.
- Abstract(参考訳): Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
クライアントと呼ばれるユーザのデバイスの生データを使用してトレーニングが行われ、グラデーションと呼ばれるトレーニング結果のみがサーバに送られて集約され、更新されたモデルが生成される。
しかし、サーバが、所有者やデータソースに関連するメタデータなど、プライベートな情報で信頼できると仮定することはできない。
したがって、クライアント情報をサーバから隠すことは、プライバシー関連の攻撃を減らすのに役立つ。
したがって、クライアントのアイデンティティのプライバシとクライアントのデータのプライバシは、そのような攻撃をより困難にするために必要である。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
GSFLと呼ばれる新しいグループシグネチャは、クライアントのデータとアイデンティティのプライバシを保護するだけでなく、フェデレーション学習の反復プロセスを考慮した計算と通信コストを大幅に削減するように設計されている。
GSFLは計算,通信,信号処理のコストにおいて既存の手法よりも優れていることを示す。
また,フェデレーション学習環境において,提案プロトコルが様々なセキュリティ攻撃を処理可能であることを示す。
関連論文リスト
- KnowledgeSG: Privacy-Preserving Synthetic Text Generation with Knowledge Distillation from Server [48.04903443425111]
大規模言語モデル (LLM) は、多くの当事者が自身のプライベートデータでLPMを微調整できるようにする。
置換のために合成データを利用するような既存のソリューションは、同時にパフォーマンスを改善し、プライバシを保存するのに苦労している。
我々は、合成データ品質を高め、プライバシを確保しつつモデル性能を向上させる新しいクライアントサーバフレームワークであるKnowledgeSGを提案する。
論文 参考訳(メタデータ) (2024-10-08T06:42:28Z) - Safely Learning with Private Data: A Federated Learning Framework for Large Language Model [3.1077263218029105]
フェデレートラーニング(FL)は、分散プライベートデータを用いたモデルのトレーニングに理想的なソリューションである。
FedAvgのような従来のフレームワークは、大きな言語モデル(LLM)には適さない
本稿では,サーバサイド攻撃とピアクライアント攻撃の両方によるデータ漏洩を防止するFL-GLMを提案する。
論文 参考訳(メタデータ) (2024-06-21T06:43:15Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Boosting Communication Efficiency of Federated Learning's Secure Aggregation [22.943966056320424]
Federated Learning(FL)は、クライアントデバイスがモデルをローカルにトレーニングしてサーバに送信する分散機械学習アプローチである。
FLは、トレーニングされたモデルからセンシティブなクライアントデータを推論できる、モデル逆攻撃に対して脆弱である。
GoogleのSecure Aggregation(SecAgg)プロトコルは、各クライアントのトレーニング済みモデルを隠すことによって、このデータプライバシ問題に対処する。
このポスターでは、このオーバーヘッドを大幅に削減する通信効率の高いセキュアアグリゲーション(CESA)プロトコルを紹介している。
論文 参考訳(メタデータ) (2024-05-02T10:00:16Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - Love or Hate? Share or Split? Privacy-Preserving Training Using Split
Learning and Homomorphic Encryption [47.86010265348072]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-09-19T10:56:08Z) - Secure Aggregation Is Not All You Need: Mitigating Privacy Attacks with
Noise Tolerance in Federated Learning [0.0]
フェデレーション学習は、AIモデルを作成しながらデータのプライバシを保護することを目的としている。
現在のアプローチは、データのプライバシを保護するためのセキュアなアグリゲーションプロトコルに大きく依存しています。
サーバが完全に悪意を持っていれば生じる可能性のある,セキュアなアグリゲーションに対する脆弱性を調査します。
論文 参考訳(メタデータ) (2022-11-10T05:13:08Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。