論文の概要: Bilateral Dependency Optimization: Defending Against Model-inversion
Attacks
- arxiv url: http://arxiv.org/abs/2206.05483v1
- Date: Sat, 11 Jun 2022 10:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 16:35:59.050088
- Title: Bilateral Dependency Optimization: Defending Against Model-inversion
Attacks
- Title(参考訳): 両側依存最適化:モデル反転攻撃に対する防御
- Authors: Xiong Peng, Feng Liu, Jingfen Zhang, Long Lan, Junjie Ye, Tongliang
Liu, Bo Han
- Abstract要約: 本稿では,モデル反転攻撃に対する二元的依存性最適化(BiDO)戦略を提案する。
BiDOは、さまざまなデータセット、分類器、MI攻撃に対する最先端の防御性能を達成する。
- 参考スコア(独自算出の注目度): 61.78426165008083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Through using only a well-trained classifier, model-inversion (MI) attacks
can recover the data used for training the classifier, leading to the privacy
leakage of the training data. To defend against MI attacks, previous work
utilizes a unilateral dependency optimization strategy, i.e., minimizing the
dependency between inputs (i.e., features) and outputs (i.e., labels) during
training the classifier. However, such a minimization process conflicts with
minimizing the supervised loss that aims to maximize the dependency between
inputs and outputs, causing an explicit trade-off between model robustness
against MI attacks and model utility on classification tasks. In this paper, we
aim to minimize the dependency between the latent representations and the
inputs while maximizing the dependency between latent representations and the
outputs, named a bilateral dependency optimization (BiDO) strategy. In
particular, we use the dependency constraints as a universally applicable
regularizer in addition to commonly used losses for deep neural networks (e.g.,
cross-entropy), which can be instantiated with appropriate dependency criteria
according to different tasks. To verify the efficacy of our strategy, we
propose two implementations of BiDO, by using two different dependency
measures: BiDO with constrained covariance (BiDO-COCO) and BiDO with
Hilbert-Schmidt Independence Criterion (BiDO-HSIC). Experiments show that BiDO
achieves the state-of-the-art defense performance for a variety of datasets,
classifiers, and MI attacks while suffering a minor classification-accuracy
drop compared to the well-trained classifier with no defense, which lights up a
novel road to defend against MI attacks.
- Abstract(参考訳): 十分に訓練された分類器のみを使用することで、モデル反転(MI)攻撃は分類器のトレーニングに使用されるデータを回復し、トレーニングデータのプライバシーが漏洩する。
MI攻撃に対抗するため、以前の作業では、一方的な依存最適化戦略(すなわち、入力(特徴)と出力(ラベル)の間の依存を最小限に抑える。
しかし、そのような最小化プロセスは、入力と出力間の依存性を最大化することを目的とした教師付き損失の最小化と矛盾し、MI攻撃に対するモデルロバスト性と分類タスクにおけるモデルユーティリティとの明確なトレードオフを引き起こす。
本稿では,潜在表現と入力の間の依存性を最小限に抑えつつ,潜在表現と出力の間の依存性を最大化することを目的とする。
特に、依存関係の制約を、ディープニューラルネットワーク(例えばクロスエントロピー)の一般的な損失に加えて、普遍的に適用可能な正規化子として使用し、異なるタスクに応じて適切な依存性基準でインスタンス化することができる。
提案手法の有効性を検証するために,制約付き共分散BiDO(BiDO-COCO)とヒルベルト・シュミット独立基準BiDO(BiDO-HSIC)の2つの異なる依存性尺度を用いたBiDOの実装を提案する。
実験により, 各種データセット, 分類器, MI攻撃に対する最先端の防御性能は, 防御能力のない訓練済み分類器に比べ, 微妙な分類精度低下に悩まされている。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。