論文の概要: Auditing Membership Leakages of Multi-Exit Networks
- arxiv url: http://arxiv.org/abs/2208.11180v1
- Date: Tue, 23 Aug 2022 20:16:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:21:17.792160
- Title: Auditing Membership Leakages of Multi-Exit Networks
- Title(参考訳): マルチエクイットネットワークにおけるメンバーシップリークの監査
- Authors: Zheng Li, Yiyong Liu, Xinlei He, Ning Yu, Michael Backes and Yang
Zhang
- Abstract要約: マルチエグジットネットワークの最初のプライバシ分析は、会員情報漏洩のレンズを用いて行う。
本稿では,既存の攻撃の性能向上のため,出口情報を利用したハイブリッド攻撃を提案する。
マルチエグジットネットワークに特化してTimeGuardという防衛機構を提案し,TimeGuardが新たに提案した攻撃を完璧に軽減することを示す。
- 参考スコア(独自算出の注目度): 24.993435293184323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Relying on the fact that not all inputs require the same amount of
computation to yield a confident prediction, multi-exit networks are gaining
attention as a prominent approach for pushing the limits of efficient
deployment. Multi-exit networks endow a backbone model with early exits,
allowing to obtain predictions at intermediate layers of the model and thus
save computation time and/or energy. However, current various designs of
multi-exit networks are only considered to achieve the best trade-off between
resource usage efficiency and prediction accuracy, the privacy risks stemming
from them have never been explored. This prompts the need for a comprehensive
investigation of privacy risks in multi-exit networks.
In this paper, we perform the first privacy analysis of multi-exit networks
through the lens of membership leakages. In particular, we first leverage the
existing attack methodologies to quantify the multi-exit networks'
vulnerability to membership leakages. Our experimental results show that
multi-exit networks are less vulnerable to membership leakages and the exit
(number and depth) attached to the backbone model is highly correlated with the
attack performance. Furthermore, we propose a hybrid attack that exploits the
exit information to improve the performance of existing attacks. We evaluate
membership leakage threat caused by our hybrid attack under three different
adversarial setups, ultimately arriving at a model-free and data-free
adversary. These results clearly demonstrate that our hybrid attacks are very
broadly applicable, thereby the corresponding risks are much more severe than
shown by existing membership inference attacks. We further present a defense
mechanism called TimeGuard specifically for multi-exit networks and show that
TimeGuard mitigates the newly proposed attacks perfectly.
- Abstract(参考訳): すべての入力が同じ量の計算を必要とするわけではないため、マルチエクイットネットワークは効率的なデプロイメントの限界を押し上げるための顕著なアプローチとして注目を集めている。
マルチエクイットネットワークは、初期の出口を持つバックボーンモデルを提供し、モデルの中間層での予測を得ることができ、計算時間および/またはエネルギーを節約できる。
しかし、現在のマルチエグジットネットワークの様々な設計は、資源利用効率と予測精度の最良のトレードオフを達成するためにのみ考慮されており、それらに起因するプライバシーリスクは調査されていない。
これにより、マルチエグジットネットワークにおけるプライバシーリスクの包括的調査の必要性が高まる。
本稿では,メンバシップリークのレンズを通して,マルチエクイットネットワークのプライバシ解析を行う。
特に,既存の攻撃手法を活用して,メンバシップリークに対するマルチエクイットネットワークの脆弱性を定量化する。
実験結果から,マルチエグジットネットワークはメンバシップリークに対する脆弱性が低く,バックボーンモデルに付随する出口(数と深さ)は攻撃性能と強く相関していることがわかった。
さらに,既存の攻撃性能を向上させるために,出口情報を利用するハイブリッド攻撃を提案する。
ハイブリッド攻撃によるメンバシップリークの脅威を,3つの異なる攻撃条件下で評価し,最終的にモデルフリーでデータフリーな敵に到達した。
これらの結果は,我々のハイブリッド攻撃が極めて広く適用可能であることを明確に示しており,それに対応するリスクは,既存のメンバシップ推論攻撃よりもはるかに高い。
さらに,マルチエグジットネットワークに特化してTimeGuardという防衛機構を提案し,新たに提案された攻撃を完全に軽減することを示す。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Aggressive or Imperceptible, or Both: Network Pruning Assisted Hybrid Byzantines in Federated Learning [6.384138583754105]
フェデレートラーニング(FL)は、多種多様なクライアント(おそらくモバイルデバイス)が、一般化された機械学習モデルの生成に協力できるようにするために導入された。
多数のクライアントが参加しているため、各クライアントのプロファイルと検証が難しい場合が多いため、セキュリティ上の脅威が発生します。
本研究では,より高感度のNN位置のみを攻撃し,さらに時間とともに蓄積するハイブリッド・スパルス・ビザンチン攻撃を導入する。
論文 参考訳(メタデータ) (2024-04-09T11:42:32Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [11.235386862864397]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - On The Vulnerability of Recurrent Neural Networks to Membership
Inference Attacks [20.59493611017851]
機械学習において、リカレントニューラルネットワークをデプロイすることのプライバシーへの影響について検討する。
本研究では,攻撃者が学習エージェントの訓練に与えられたデータ記録を用いていたかどうかを推測することを目的としたMIAについて考察する。
論文 参考訳(メタデータ) (2021-10-06T20:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。