論文の概要: A New Implementation of Federated Learning for Privacy and Security
Enhancement
- arxiv url: http://arxiv.org/abs/2208.01826v1
- Date: Wed, 3 Aug 2022 03:13:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 14:18:06.852080
- Title: A New Implementation of Federated Learning for Privacy and Security
Enhancement
- Title(参考訳): プライバシーとセキュリティ強化のための連合学習の新たな実装
- Authors: Xiang Ma, Haijian Sun, Rose Qingyang Hu and Yi Qian
- Abstract要約: フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 27.612480082254486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivated by the ever-increasing concerns on personal data privacy and the
rapidly growing data volume at local clients, federated learning (FL) has
emerged as a new machine learning setting. An FL system is comprised of a
central parameter server and multiple local clients. It keeps data at local
clients and learns a centralized model by sharing the model parameters learned
locally. No local data needs to be shared, and privacy can be well protected.
Nevertheless, since it is the model instead of the raw data that is shared, the
system can be exposed to the poisoning model attacks launched by malicious
clients. Furthermore, it is challenging to identify malicious clients since no
local client data is available on the server. Besides, membership inference
attacks can still be performed by using the uploaded model to estimate the
client's local data, leading to privacy disclosure. In this work, we first
propose a model update based federated averaging algorithm to defend against
Byzantine attacks such as additive noise attacks and sign-flipping attacks. The
individual client model initialization method is presented to provide further
privacy protections from the membership inference attacks by hiding the
individual local machine learning model. When combining these two schemes,
privacy and security can be both effectively enhanced. The proposed schemes are
proved to converge experimentally under non-IID data distribution when there
are no attacks. Under Byzantine attacks, the proposed schemes perform much
better than the classical model based FedAvg algorithm.
- Abstract(参考訳): 個人データプライバシに関する懸念の高まりと、ローカルクライアントにおける急速に増加するデータ量に動機づけられたfederated learning(fl)が、新たなマシンラーニング環境として登場した。
FLシステムは、中央パラメータサーバと複数のローカルクライアントから構成される。
ローカルクライアントにデータを保持し、ローカルに学習したモデルパラメータを共有することで、集中型モデルを学ぶ。
ローカルデータを共有する必要はなく、プライバシも十分に保護される。
それでも、共有される生データではなくモデルであるため、システムは悪意のあるクライアントによって起動される毒モデル攻撃に晒される可能性がある。
さらに、ローカルクライアントデータがサーバ上にないため、悪意のあるクライアントを特定するのは難しい。
さらに、メンバーシップ推論攻撃は、アップロードされたモデルを使用してクライアントのローカルデータを推定することで、プライバシの開示につながる。
本研究では,まずモデル更新に基づくフェデレーション平均化アルゴリズムを提案し,付加雑音攻撃やサインフリップ攻撃などのビザンチン攻撃を防御する。
個々のローカル機械学習モデルを隠すことにより、会員推論攻撃からさらなるプライバシー保護を提供するために、個々のクライアントモデル初期化方法を提案する。
これら2つのスキームを組み合わせることで、プライバシーとセキュリティを効果的に強化することができる。
提案手法は,攻撃がない場合に,非IIDデータ分布下で実験的に収束することが実証された。
ビザンティン攻撃下では、提案手法は従来のモデルベースのFedAvgアルゴリズムよりもはるかに優れている。
関連論文リスト
- Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - A Framework for Evaluating Gradient Leakage Attacks in Federated
Learning [14.134217287912008]
Federated Learning(FL)は、クライアントのネットワークと協調的なモデルトレーニングのための、新興の分散機械学習フレームワークである。
最近の研究では、クライアントからフェデレーションサーバにローカルパラメータの更新を共有しても、グラデーションリーク攻撃の影響を受けやすいことが示されている。
本稿では,クライアントプライバシ漏洩攻撃のさまざまな形態の評価と比較を行うための原則的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-22T05:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。