論文の概要: GAN-based Domain Inference Attack
- arxiv url: http://arxiv.org/abs/2212.11810v1
- Date: Thu, 22 Dec 2022 15:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:19:03.977314
- Title: GAN-based Domain Inference Attack
- Title(参考訳): GANベースのドメイン推論攻撃
- Authors: Yuechun Gu and Keke Chen
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)に基づく,対象モデルの潜在的ないし類似した領域を探索する手法を提案する。
ドメインがターゲットドメインとより類似している場合、ターゲットモデルがトレーニング手順の邪魔をしなくなる可能性がある。
実験の結果,MDIトップランクドメインからの補助データセットは,モデル反転攻撃の結果を効果的に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 3.731168012111833
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Model-based attacks can infer training data information from deep neural
network models. These attacks heavily depend on the attacker's knowledge of the
application domain, e.g., using it to determine the auxiliary data for
model-inversion attacks. However, attackers may not know what the model is used
for in practice. We propose a generative adversarial network (GAN) based method
to explore likely or similar domains of a target model -- the model domain
inference (MDI) attack. For a given target (classification) model, we assume
that the attacker knows nothing but the input and output formats and can use
the model to derive the prediction for any input in the desired form. Our basic
idea is to use the target model to affect a GAN training process for a
candidate domain's dataset that is easy to obtain. We find that the target
model may distract the training procedure less if the domain is more similar to
the target domain. We then measure the distraction level with the distance
between GAN-generated datasets, which can be used to rank candidate domains for
the target model. Our experiments show that the auxiliary dataset from an MDI
top-ranked domain can effectively boost the result of model-inversion attacks.
- Abstract(参考訳): モデルベースの攻撃は、ディープニューラルネットワークモデルからトレーニングデータ情報を推測することができる。
これらの攻撃は、例えば、モデル反転攻撃の補助データを決定するために、攻撃者のアプリケーションドメインに関する知識に大きく依存する。
しかし、攻撃者はモデルが実際に何に使われるのかを知らないかもしれない。
本稿では,ターゲットモデルの確率的あるいは類似する領域であるモデルドメイン推論(mdi)攻撃を探索する,gan(generative adversarial network)ベースの手法を提案する。
所定のターゲット(分類)モデルに対して、攻撃者は入力と出力の形式以外何も知らないと仮定し、そのモデルを用いて所望の形式の入力の予測を導出できる。
我々の基本的な考え方は、取得が容易な候補ドメインのデータセットのganトレーニングプロセスに影響を与えるためにターゲットモデルを使用することです。
ドメインがターゲットドメインとより類似している場合、ターゲットモデルがトレーニング手順を邪魔しなくなる可能性がある。
次に、ターゲットモデルの候補領域のランク付けに使用可能な、GAN生成データセット間の距離で、散逸レベルを測定する。
実験の結果,MDIトップランクドメインからの補助データセットは,モデル反転攻撃の結果を効果的に向上させることができることがわかった。
関連論文リスト
- Adaptive Domain Inference Attack [6.336458796079136]
既存のモデルターゲットアタックは、攻撃者がアプリケーションドメインを知っているか、データ分散をトレーニングしていると仮定する。
モデルAPIからドメイン情報を取り除くことは、これらの攻撃からモデルを保護することができるか?
提案した適応的ドメイン推論攻撃(ADI)は、トレーニングデータの関連するサブセットを評価できる。
論文 参考訳(メタデータ) (2023-12-22T22:04:13Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - DREAM: Domain-free Reverse Engineering Attributes of Black-box Model [51.37041886352823]
ブラックボックス対象モデルの属性をドメインに依存しないリバースエンジニアリングの新しい問題を提案する。
対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために,ドメインに依存しないモデルを学ぶ。
論文 参考訳(メタデータ) (2023-07-20T16:25:58Z) - Unstoppable Attack: Label-Only Model Inversion via Conditional Diffusion
Model [14.834360664780709]
モデルアタック(MIA)は、深層学習モデルの到達不可能なトレーニングセットからプライベートデータを復元することを目的としている。
そこで本研究では,条件拡散モデル(CDM)を応用したMIA手法を開発し,対象ラベル下でのサンプルの回収を行う。
実験結果から,本手法は従来手法よりも高い精度で類似したサンプルをターゲットラベルに生成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-17T12:14:24Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Label-only Model Inversion Attack: The Attack that Requires the Least
Information [14.061083728194378]
モデル反転攻撃では、敵はモデル出力のみを使用してターゲットモデルをトレーニングするために使用されるデータレコードを再構築しようと試みる。
出力ラベルのみに基づいて入力データレコードを再構成できるモデル逆変換法が発見された。
論文 参考訳(メタデータ) (2022-03-13T03:03:49Z) - Cross Domain Few-Shot Learning via Meta Adversarial Training [34.383449283927014]
Few-shot Relation Classification (RC) は機械学習における重要な問題の1つである。
先述のクロスドメイン状況を考慮した新しいモデルを提案する。
対象領域のデータに適応する訓練ネットワークを微調整するために,メタベース対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-11T15:52:29Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Domain Adaptation Using Class Similarity for Robust Speech Recognition [24.951852740214413]
本稿では,クラス類似性を用いたディープニューラルネットワーク(DNN)音響モデルの新しい適応法を提案する。
実験の結果, アクセントと雑音適応の両タスクにおいて, ワンホットラベルを用いた微調整よりも優れていた。
論文 参考訳(メタデータ) (2020-11-05T12:26:43Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。