論文の概要: Data-free Black-box Attack based on Diffusion Model
- arxiv url: http://arxiv.org/abs/2307.12872v1
- Date: Mon, 24 Jul 2023 15:10:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 13:53:15.926346
- Title: Data-free Black-box Attack based on Diffusion Model
- Title(参考訳): 拡散モデルに基づくデータフリーブラックボックス攻撃
- Authors: Mingwen Shao, Lingzhuang Meng, Yuanjian Qiao, Lixu Zhang, Wangmeng Zuo
- Abstract要約: 代用トレーニングの効率と精度を向上させるために,拡散モデルに基づくデータフリーのブラックボックス攻撃方式を提案する。
我々のLCAは攻撃の成功率が高く、異なるターゲットモデルに対するGANベースのスキームに比べてクエリ予算の削減が要求される。
- 参考スコア(独自算出の注目度): 59.62084781455181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the training data for the target model in a data-free black-box attack
is not available, most recent schemes utilize GANs to generate data for
training substitute model. However, these GANs-based schemes suffer from low
training efficiency as the generator needs to be retrained for each target
model during the substitute training process, as well as low generation
quality. To overcome these limitations, we consider utilizing the diffusion
model to generate data, and propose a data-free black-box attack scheme based
on diffusion model to improve the efficiency and accuracy of substitute
training. Despite the data generated by the diffusion model exhibits high
quality, it presents diverse domain distributions and contains many samples
that do not meet the discriminative criteria of the target model. To further
facilitate the diffusion model to generate data suitable for the target model,
we propose a Latent Code Augmentation (LCA) method to guide the diffusion model
in generating data. With the guidance of LCA, the data generated by the
diffusion model not only meets the discriminative criteria of the target model
but also exhibits high diversity. By utilizing this data, it is possible to
train substitute model that closely resemble the target model more efficiently.
Extensive experiments demonstrate that our LCA achieves higher attack success
rates and requires fewer query budgets compared to GANs-based schemes for
different target models.
- Abstract(参考訳): データフリーのブラックボックス攻撃における対象モデルのトレーニングデータは利用できないため、近年のスキームではGANを用いて代替モデルのトレーニングデータを生成する。
しかしながら、これらのGANベースのスキームは、代替トレーニングプロセス中に各ターゲットモデルに対してジェネレータを再訓練する必要があるため、低トレーニング効率に悩まされる。
これらの制約を克服するため,データ生成に拡散モデルの利用を検討するとともに,拡散モデルに基づくデータフリーなブラックボックス攻撃方式を提案し,代用トレーニングの効率と精度を向上させる。
拡散モデルによって生成されたデータは高品質であるにもかかわらず、多様な領域分布を示し、対象モデルの識別基準を満たしない多くのサンプルを含む。
対象モデルに適したデータを生成するための拡散モデルをさらに容易にするために,データ生成における拡散モデルを導く潜在コード拡張(lca)法を提案する。
LCAのガイダンスにより、拡散モデルによって生成されたデータは、対象モデルの識別基準を満たすだけでなく、高い多様性を示す。
このデータを利用することで、より効率的にターゲットモデルに近い代替モデルを訓練することができる。
広範な実験により,当社のlcaは攻撃成功率が高く,異なるターゲットモデルに対するgansベースのスキームと比較してクエリ予算の削減が期待できることがわかった。
関連論文リスト
- Pruning then Reweighting: Towards Data-Efficient Training of Diffusion Models [33.09663675904689]
データセットプルーニングの観点から,効率的な拡散訓練について検討する。
GAN(Generative Adversarial Network)のような生成モデルに対するデータ効率トレーニングの原則に着想を得て、まず、GANで使用されるデータ選択スキームをDMトレーニングに拡張する。
生成性能をさらに向上するため,クラスワイド・リウェイト方式を採用する。
論文 参考訳(メタデータ) (2024-09-27T20:21:19Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデルアタック(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Distributional Black-Box Model Inversion Attack with Multi-Agent Reinforcement Learning [19.200221582814518]
本稿では,ターゲットのプライバシデータを検索する確率的潜在空間を構築することで,DBB-MI(Distributedal Black-Box Model Inversion)攻撃を提案する。
潜在確率分布は、潜在空間におけるターゲットプライバシデータと密接に一致しているため、回収されたデータは、ターゲットモデルのトレーニングサンプルのプライバシを著しくリークする。
多様なデータセットやネットワーク上で行った実験から,現在のDBB-MIは,攻撃精度,Kアレスト近傍の特徴距離,Pak Signal-to-Noise比よりも優れた性能を示している。
論文 参考訳(メタデータ) (2024-04-22T04:18:38Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Target-Aware Generative Augmentations for Single-Shot Adaptation [21.840653627684855]
我々は、ソースドメインからターゲットドメインへのモデル適応のための新しいアプローチを提案する。
SiSTAは、単一ショットターゲットを用いてソースドメインから生成モデルを微調整し、その後、合成ターゲットデータをキュレートするための新しいサンプリング戦略を用いる。
顔検出や多クラス物体認識において,SiSTAは既存のベースラインよりも大幅に向上していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T17:46:26Z) - SRoUDA: Meta Self-training for Robust Unsupervised Domain Adaptation [25.939292305808934]
教師なしドメイン適応(UDA)は、リッチラベルデータセットから学習した知識をラベルなしターゲットデータセットに転送することができる。
本稿では,UDAモデルの対角的ロバスト性を改善するために,SRoUDAというメタ自己学習パイプラインを提案する。
論文 参考訳(メタデータ) (2022-12-12T14:25:40Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。