論文の概要: MixNN: Protection of Federated Learning Against Inference Attacks by
Mixing Neural Network Layers
- arxiv url: http://arxiv.org/abs/2109.12550v1
- Date: Sun, 26 Sep 2021 10:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:11:10.459357
- Title: MixNN: Protection of Federated Learning Against Inference Attacks by
Mixing Neural Network Layers
- Title(参考訳): MixNN: ニューラルネットワーク層混在による推論攻撃に対するフェデレーション学習の保護
- Authors: Antoine Boutet and Thomas Lebrun and Jan Aalmoes and Adrien Baud
- Abstract要約: MixNNは、フェデレート学習のためのプロキシベースのプライバシ保護システムである。
MixNNは参加者からモデル更新を受け取り、アグリゲーションサーバにミキシング更新を送信する前に、参加者間でレイヤを混ぜる。
ノイズ勾配を用いたベースラインと比較して,MixNNは属性推定を著しく制限することを示す。
- 参考スコア(独自算出の注目度): 0.8029049649310213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) has emerged as a core technology to provide learning
models to perform complex tasks. Boosted by Machine Learning as a Service
(MLaaS), the number of applications relying on ML capabilities is ever
increasing. However, ML models are the source of different privacy violations
through passive or active attacks from different entities. In this paper, we
present MixNN a proxy-based privacy-preserving system for federated learning to
protect the privacy of participants against a curious or malicious aggregation
server trying to infer sensitive attributes. MixNN receives the model updates
from participants and mixes layers between participants before sending the
mixed updates to the aggregation server. This mixing strategy drastically
reduces privacy without any trade-off with utility. Indeed, mixing the updates
of the model has no impact on the result of the aggregation of the updates
computed by the server. We experimentally evaluate MixNN and design a new
attribute inference attack, Sim, exploiting the privacy vulnerability of SGD
algorithm to quantify privacy leakage in different settings (i.e., the
aggregation server can conduct a passive or an active attack). We show that
MixNN significantly limits the attribute inference compared to a baseline using
noisy gradient (well known to damage the utility) while keeping the same level
of utility as classic federated learning.
- Abstract(参考訳): 機械学習(ml)は、複雑なタスクを実行するための学習モデルを提供するコア技術として登場した。
MLaaS(Machine Learning as a Service)によって強化され、ML機能に依存するアプリケーションの数が増えています。
しかし、MLモデルは異なるエンティティからの受動的またはアクティブな攻撃を通じて、異なるプライバシ違反の原因となっている。
そこで本稿では,MixNNをプロキシベースのプライバシ保護システムとして,機密属性を推論しようとする疑わしい,悪意のある集約サーバに対して,参加者のプライバシ保護を行う。
MixNNは参加者からモデル更新を受け取り、アグリゲーションサーバに混合更新を送信する前に、参加者間でレイヤを混ぜる。
この混合戦略は、ユーティリティとのトレードオフなしにプライバシを大幅に削減します。
実際、モデルの更新を混合することは、サーバが計算した更新の集約の結果に影響を与えません。
我々はmixnnを実験的に評価し,sgdアルゴリズムのプライバシ脆弱性を利用して異なる設定(アグリゲーションサーバは受動的あるいはアクティブな攻撃を行うことができる)でプライバシリークを定量化する新しい属性推論攻撃simを設計した。
mixnnは,従来のフェデレーション学習と同等の実用性を維持しつつ,ノイズ勾配(ユーティリティを損なうことがよく知られている)を用いたベースラインと比較して,属性推論を著しく制限している。
関連論文リスト
- Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - MixNN: A design for protecting deep learning models [7.15960995040861]
深層学習モデルの構造とパラメータを保護するために,MixNNと呼ばれる新しい設計を提案する。
ある分類実験では、仮想マシンにデプロイされたニューラルネットワークと、AWS EC2のMixNN設計とを比較した。
その結果、MixNNは分類精度が0.001以下であり、MixNN全体の実行時間は1つの仮想マシン上で実行されているものよりも約7.5倍遅いことがわかった。
論文 参考訳(メタデータ) (2022-03-28T14:44:35Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Adversarial Robustness through Bias Variance Decomposition: A New
Perspective for Federated Learning [41.525434598682764]
フェデレーション学習は、プライバシ保護制約の下で分散クライアントのグループからの知識を集約することで、ニューラルネットワークモデルを学ぶ。
このパラダイムは、集中型ニューラルネットワークの敵対的脆弱性を継承する可能性がある。
本稿では,サーバとクライアントの更新機構を改善したFed_BVAという,対角的に堅牢なフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-18T18:58:25Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。