論文の概要: DAMIA: Leveraging Domain Adaptation as a Defense against Membership
Inference Attacks
- arxiv url: http://arxiv.org/abs/2005.08016v1
- Date: Sat, 16 May 2020 15:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:43:13.086542
- Title: DAMIA: Leveraging Domain Adaptation as a Defense against Membership
Inference Attacks
- Title(参考訳): DAMIA: メンバシップ推論攻撃に対する防御としてドメイン適応を活用する
- Authors: Hongwei Huang, Weiqi Luo, Guoqiang Zeng, Jian Weng, Yue Zhang, Anjia
Yang
- Abstract要約: 我々は、ドメイン適応(DA)を防衛アジニストメンバーシップ推論攻撃として活用するDAMIAを提案し、実装する。
我々の観察では、DAは、他の関連するデータセットを使用して保護されるデータセットを難読化し、両方のデータセットから機能を根本から抽出するモデルを導出する。
DAMIAによってトレーニングされたモデルは、ユーザビリティに無視できるフットプリントを持っている。
- 参考スコア(独自算出の注目度): 22.10053473193636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning (DL) techniques allow ones to train models from a dataset to
solve tasks. DL has attracted much interest given its fancy performance and
potential market value, while security issues are amongst the most colossal
concerns. However, the DL models may be prone to the membership inference
attack, where an attacker determines whether a given sample is from the
training dataset. Efforts have been made to hinder the attack but
unfortunately, they may lead to a major overhead or impaired usability. In this
paper, we propose and implement DAMIA, leveraging Domain Adaptation (DA) as a
defense aginist membership inference attacks. Our observation is that during
the training process, DA obfuscates the dataset to be protected using another
related dataset, and derives a model that underlyingly extracts the features
from both datasets. Seeing that the model is obfuscated, membership inference
fails, while the extracted features provide supports for usability. Extensive
experiments have been conducted to validates our intuition. The model trained
by DAMIA has a negligible footprint to the usability. Our experiment also
excludes factors that may hinder the performance of DAMIA, providing a
potential guideline to vendors and researchers to benefit from our solution in
a timely manner.
- Abstract(参考訳): ディープラーニング(dl)技術は、データセットからモデルをトレーニングしてタスクを解決可能にする。
DLはその優れたパフォーマンスと潜在的な市場価値から、多くの関心を集めている。
しかし、DLモデルは、あるサンプルがトレーニングデータセットから来ているかどうかを攻撃者が判断する、メンバシップ推論攻撃に傾向がある。
攻撃を妨げようとする努力がなされているが、残念ながら大きなオーバーヘッドやユーザビリティを損なう可能性がある。
本稿では,ドメイン適応(DA)を防衛アジニストのメンバシップ推論攻撃として活用したDAMIAを提案する。
私たちの観察では、トレーニングプロセス中にdaは、他の関連するデータセットを使用して保護されるデータセットをobfuscateし、両方のデータセットから機能を基礎的に抽出するモデルを引き出す。
モデルは難読化されているため、メンバシップ推論は失敗し、抽出された機能はユーザビリティをサポートする。
我々の直感を検証するために大規模な実験が行われた。
DAMIAによってトレーニングされたモデルは、ユーザビリティに無視できるフットプリントを持っている。
我々の実験は、DAMIAのパフォーマンスを妨げる可能性のある要因を除外し、ベンダーや研究者がタイムリーにソリューションの恩恵を受けるためのガイドラインを提供する。
関連論文リスト
- Parameter Matching Attack: Enhancing Practical Applicability of Availability Attacks [8.225819874406238]
PMA(Matching Attack)と呼ばれる新しいアベイラビリティー・アプローチを提案する。
PMAは、データの一部を摂動できる場合に機能する最初のアベイラビリティ攻撃である。
PMAは既存の手法よりも優れており、トレーニングデータの一部が摂動した場合に顕著なモデル性能劣化を達成できることを示す。
論文 参考訳(メタデータ) (2024-07-02T17:15:12Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Explaining Adversarial Vulnerability with a Data Sparsity Hypothesis [0.0]
深層学習モデルは 敵対的な攻撃を受けやすい
本稿では,そのような決定境界を学習するためのDLモデルのトレーニングフレームワークを開発する。
我々は,このトレーニングフレームワークを用いて訓練したモデルの,よく知られた敵攻撃に対する敵の堅牢性を測定する。
論文 参考訳(メタデータ) (2021-03-01T06:04:31Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。