論文の概要: Auditing Membership Leakages of Multi-Exit Networks
- arxiv url: http://arxiv.org/abs/2208.11180v1
- Date: Tue, 23 Aug 2022 20:16:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:21:17.792160
- Title: Auditing Membership Leakages of Multi-Exit Networks
- Title(参考訳): マルチエクイットネットワークにおけるメンバーシップリークの監査
- Authors: Zheng Li, Yiyong Liu, Xinlei He, Ning Yu, Michael Backes and Yang
Zhang
- Abstract要約: マルチエグジットネットワークの最初のプライバシ分析は、会員情報漏洩のレンズを用いて行う。
本稿では,既存の攻撃の性能向上のため,出口情報を利用したハイブリッド攻撃を提案する。
マルチエグジットネットワークに特化してTimeGuardという防衛機構を提案し,TimeGuardが新たに提案した攻撃を完璧に軽減することを示す。
- 参考スコア(独自算出の注目度): 24.993435293184323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Relying on the fact that not all inputs require the same amount of
computation to yield a confident prediction, multi-exit networks are gaining
attention as a prominent approach for pushing the limits of efficient
deployment. Multi-exit networks endow a backbone model with early exits,
allowing to obtain predictions at intermediate layers of the model and thus
save computation time and/or energy. However, current various designs of
multi-exit networks are only considered to achieve the best trade-off between
resource usage efficiency and prediction accuracy, the privacy risks stemming
from them have never been explored. This prompts the need for a comprehensive
investigation of privacy risks in multi-exit networks.
In this paper, we perform the first privacy analysis of multi-exit networks
through the lens of membership leakages. In particular, we first leverage the
existing attack methodologies to quantify the multi-exit networks'
vulnerability to membership leakages. Our experimental results show that
multi-exit networks are less vulnerable to membership leakages and the exit
(number and depth) attached to the backbone model is highly correlated with the
attack performance. Furthermore, we propose a hybrid attack that exploits the
exit information to improve the performance of existing attacks. We evaluate
membership leakage threat caused by our hybrid attack under three different
adversarial setups, ultimately arriving at a model-free and data-free
adversary. These results clearly demonstrate that our hybrid attacks are very
broadly applicable, thereby the corresponding risks are much more severe than
shown by existing membership inference attacks. We further present a defense
mechanism called TimeGuard specifically for multi-exit networks and show that
TimeGuard mitigates the newly proposed attacks perfectly.
- Abstract(参考訳): すべての入力が同じ量の計算を必要とするわけではないため、マルチエクイットネットワークは効率的なデプロイメントの限界を押し上げるための顕著なアプローチとして注目を集めている。
マルチエクイットネットワークは、初期の出口を持つバックボーンモデルを提供し、モデルの中間層での予測を得ることができ、計算時間および/またはエネルギーを節約できる。
しかし、現在のマルチエグジットネットワークの様々な設計は、資源利用効率と予測精度の最良のトレードオフを達成するためにのみ考慮されており、それらに起因するプライバシーリスクは調査されていない。
これにより、マルチエグジットネットワークにおけるプライバシーリスクの包括的調査の必要性が高まる。
本稿では,メンバシップリークのレンズを通して,マルチエクイットネットワークのプライバシ解析を行う。
特に,既存の攻撃手法を活用して,メンバシップリークに対するマルチエクイットネットワークの脆弱性を定量化する。
実験結果から,マルチエグジットネットワークはメンバシップリークに対する脆弱性が低く,バックボーンモデルに付随する出口(数と深さ)は攻撃性能と強く相関していることがわかった。
さらに,既存の攻撃性能を向上させるために,出口情報を利用するハイブリッド攻撃を提案する。
ハイブリッド攻撃によるメンバシップリークの脅威を,3つの異なる攻撃条件下で評価し,最終的にモデルフリーでデータフリーな敵に到達した。
これらの結果は,我々のハイブリッド攻撃が極めて広く適用可能であることを明確に示しており,それに対応するリスクは,既存のメンバシップ推論攻撃よりもはるかに高い。
さらに,マルチエグジットネットワークに特化してTimeGuardという防衛機構を提案し,新たに提案された攻撃を完全に軽減することを示す。
関連論文リスト
- Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - NEO-KD: Knowledge-Distillation-Based Adversarial Training for Robust
Multi-Exit Neural Networks [22.940141855172033]
我々は,知識蒸留に基づくマルチエグジットネットワークの対戦訓練戦略であるNEO-KDを提案する。
本手法は,計算予算を削減し,最適逆精度を実現する。
論文 参考訳(メタデータ) (2023-11-01T10:44:05Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [13.61907064494731]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - Improving Hyperspectral Adversarial Robustness Under Multiple Attacks [2.741266294612776]
本稿では,この問題に対処するために,敵識別器のアンサンブルネットワーク(ADE-Net)を提案する。
提案手法では, 識別器ネットワークを用いて, 攻撃タイプによるデータを, 特定の攻撃-熟練アンサンブルネットワークに分離する。
論文 参考訳(メタデータ) (2022-10-28T18:21:45Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - On The Vulnerability of Recurrent Neural Networks to Membership
Inference Attacks [20.59493611017851]
機械学習において、リカレントニューラルネットワークをデプロイすることのプライバシーへの影響について検討する。
本研究では,攻撃者が学習エージェントの訓練に与えられたデータ記録を用いていたかどうかを推測することを目的としたMIAについて考察する。
論文 参考訳(メタデータ) (2021-10-06T20:20:35Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - DICE: Diversity in Deep Ensembles via Conditional Redundancy Adversarial
Estimation [109.11580756757611]
メンバー間の多様性のおかげで、ディープアンサンブルは単一のネットワークよりもパフォーマンスが良い。
最近のアプローチでは、多様性を高めるための予測を規則化していますが、個々のメンバーのパフォーマンスも大幅に減少します。
DICEと呼ばれる新しいトレーニング基準を導入し、特徴間の素早い相関を減らして多様性を高める。
論文 参考訳(メタデータ) (2021-01-14T10:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。