論文の概要: Adaptive Domain Inference Attack
- arxiv url: http://arxiv.org/abs/2312.15088v1
- Date: Fri, 22 Dec 2023 22:04:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 20:02:27.971932
- Title: Adaptive Domain Inference Attack
- Title(参考訳): 適応型ドメイン推論攻撃
- Authors: Yuechun Gu, Keke Chen
- Abstract要約: 既存のモデルターゲットアタックは、攻撃者がアプリケーションドメインを知っているか、データ分散をトレーニングしていると仮定する。
モデルAPIからドメイン情報を取り除くことは、これらの攻撃からモデルを保護することができるか?
提案した適応的ドメイン推論攻撃(ADI)は、トレーニングデータの関連するサブセットを評価できる。
- 参考スコア(独自算出の注目度): 6.336458796079136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As deep neural networks are increasingly deployed in sensitive application
domains, such as healthcare and security, it's necessary to understand what
kind of sensitive information can be inferred from these models. Existing
model-targeted attacks all assume the attacker has known the application domain
or training data distribution, which plays an essential role in successful
attacks. Can removing the domain information from model APIs protect models
from these attacks? This paper studies this critical problem. Unfortunately,
even with minimal knowledge, i.e., accessing the model as an unnamed function
without leaking the meaning of input and output, the proposed adaptive domain
inference attack (ADI) can still successfully estimate relevant subsets of
training data. We show that the extracted relevant data can significantly
improve, for instance, the performance of model-inversion attacks.
Specifically, the ADI method utilizes a concept hierarchy built on top of a
large collection of available public and private datasets and a novel algorithm
to adaptively tune the likelihood of leaf concepts showing up in the unseen
training data. The ADI attack not only extracts partial training data at the
concept level, but also converges fast and requires much fewer target-model
accesses than another domain inference attack, GDI.
- Abstract(参考訳): ディープニューラルネットワークは、医療やセキュリティといったセンシティブなアプリケーションドメインにますますデプロイされているため、これらのモデルからどのようなセンシティブな情報を推測できるかを理解する必要がある。
既存のモデルターゲティング攻撃はすべて、攻撃者がアプリケーションドメインやトレーニングデータ分散を知っていると仮定する。
これらの攻撃からモデルを保護するモデルAPIからドメイン情報を削除できるだろうか?
本稿では,この問題について考察する。
残念なことに、最小限の知識、すなわち入力と出力の意味を漏らさずにモデルにアクセスしても、提案された適応ドメイン推論攻撃(ADI)はトレーニングデータの関連するサブセットをうまく推定することができる。
抽出された関連データは,例えばモデル・インバージョン攻撃の性能が著しく向上することを示す。
具体的には、利用可能な公開データセットとプライベートデータセットの集合の上に構築された概念階層と、未知のトレーニングデータに現れる葉の概念の可能性を適応的に調整する新しいアルゴリズムを利用する。
ADI攻撃は概念レベルで部分的なトレーニングデータを抽出するだけでなく、高速に収束し、他のドメイン推論攻撃であるGDIよりもはるかに少ないターゲットモデルアクセスを必要とする。
関連論文リスト
- Boosting Model Inversion Attacks with Adversarial Examples [26.904051413441316]
ブラックボックス設定において、より高い攻撃精度を達成できる学習ベースモデル反転攻撃のための新しい訓練パラダイムを提案する。
まず,攻撃モデルの学習過程を,意味的損失関数を追加して規則化する。
第2に、学習データに逆例を注入し、クラス関連部の多様性を高める。
論文 参考訳(メタデータ) (2023-06-24T13:40:58Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - GAN-based Domain Inference Attack [3.731168012111833]
本稿では,GAN(Generative Adversarial Network)に基づく,対象モデルの潜在的ないし類似した領域を探索する手法を提案する。
ドメインがターゲットドメインとより類似している場合、ターゲットモデルがトレーニング手順の邪魔をしなくなる可能性がある。
実験の結果,MDIトップランクドメインからの補助データセットは,モデル反転攻撃の結果を効果的に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-12-22T15:40:53Z) - Are Your Sensitive Attributes Private? Novel Model Inversion Attribute
Inference Attacks on Classification Models [22.569705869469814]
トレーニングデータ中のレコードの非感受性属性を敵が知る場合のモデル反転攻撃に着目した。
我々は,信頼性スコアに基づくモデル逆属性推論攻撃を考案し,その精度を著しく向上させる。
また、ターゲットレコードの他の(非感受性の)属性が敵に未知なシナリオにまで攻撃を拡大します。
論文 参考訳(メタデータ) (2022-01-23T21:27:20Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Property Inference Attacks on Convolutional Neural Networks: Influence
and Implications of Target Model's Complexity [1.2891210250935143]
プロパティ推論攻撃は、トレーニングデータセットに関する与えられたモデルプロパティをモデルの主な目標とは無関係に推測することを目的としている。
本稿では,ターゲットモデルの複雑性が攻撃の精度に及ぼす影響について検討する。
その結果,ターゲットモデルの複雑さとは無関係に,プライバシ侵害のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-04-27T09:19:36Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。