論文の概要: Label-Only Model Inversion Attacks via Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2310.19342v1
- Date: Mon, 30 Oct 2023 08:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 21:09:20.528777
- Title: Label-Only Model Inversion Attacks via Knowledge Transfer
- Title(参考訳): 知識伝達によるラベルのみモデル反転攻撃
- Authors: Ngoc-Bao Nguyen, Keshigeyan Chandrasegaran, Milad Abdollahzadeh,
Ngai-Man Cheung
- Abstract要約: モデル反転(MI)攻撃では、敵は機械学習(ML)モデルへのアクセスを悪用し、プライベートデータを推論して再構築する。
ラベルのみのMI攻撃に対する新しいアプローチであるLOKTを提案する。
提案手法は既存のSOTA LabelのみのMI攻撃を全MIベンチマークで15%以上上回っている。
- 参考スコア(独自算出の注目度): 35.42380723970432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a model inversion (MI) attack, an adversary abuses access to a machine
learning (ML) model to infer and reconstruct private training data. Remarkable
progress has been made in the white-box and black-box setups, where the
adversary has access to the complete model or the model's soft output
respectively. However, there is very limited study in the most challenging but
practically important setup: Label-only MI attacks, where the adversary only
has access to the model's predicted label (hard label) without confidence
scores nor any other model information.
In this work, we propose LOKT, a novel approach for label-only MI attacks.
Our idea is based on transfer of knowledge from the opaque target model to
surrogate models. Subsequently, using these surrogate models, our approach can
harness advanced white-box attacks. We propose knowledge transfer based on
generative modelling, and introduce a new model, Target model-assisted ACGAN
(T-ACGAN), for effective knowledge transfer. Our method casts the challenging
label-only MI into the more tractable white-box setup. We provide analysis to
support that surrogate models based on our approach serve as effective proxies
for the target model for MI. Our experiments show that our method significantly
outperforms existing SOTA Label-only MI attack by more than 15% across all MI
benchmarks. Furthermore, our method compares favorably in terms of query
budget. Our study highlights rising privacy threats for ML models even when
minimal information (i.e., hard labels) is exposed. Our study highlights rising
privacy threats for ML models even when minimal information (i.e., hard labels)
is exposed. Our code, demo, models and reconstructed data are available at our
project page: https://ngoc-nguyen-0.github.io/lokt/
- Abstract(参考訳): モデル反転(MI)攻撃では、敵は機械学習(ML)モデルへのアクセスを悪用し、プライベートトレーニングデータを推論して再構築する。
ホワイトボックスとブラックボックスのセットアップでは、敵がそれぞれ完全なモデルまたはモデルのソフトアウトプットにアクセスするという顕著な進歩がなされている。
しかし、最も難しいが実際に重要な設定では、非常に限定的な研究がある: ラベルのみのmi攻撃、敵は信頼度スコアや他のモデル情報なしで、モデルの予測ラベル(ハードラベル)へのアクセスしかできない。
本研究ではラベルのみのMI攻撃に対する新しいアプローチであるLOKTを提案する。
我々のアイデアは、不透明なターゲットモデルから代理モデルへの知識の伝達に基づいている。
その後,これらのサロゲートモデルを用いて,先進的なホワイトボックス攻撃を活用できる。
本稿では、生成モデルに基づく知識伝達を提案し、効果的な知識伝達のための新しいモデルであるTarget Model-assisted ACGAN(T-ACGAN)を提案する。
提案手法はラベルのみのmiをより扱いやすいホワイトボックス設定にキャストする。
提案手法に基づくサロゲートモデルがmiのターゲットモデルの効果的なプロキシとなることをサポートする分析を提供する。
実験の結果,本手法は既存のsomaラベルのみのmi攻撃を全miベンチマークで15%以上上回った。
さらに,提案手法はクエリ予算の観点から好適な比較を行う。
私たちの研究は、最小限の情報(ハードラベル)が露出しても、mlモデルに対するプライバシの脅威が高まることを浮き彫りにしている。
私たちの研究は、最小限の情報(ハードラベル)が露出しても、mlモデルに対するプライバシの脅威が高まることを浮き彫りにしている。
私たちのコード、デモ、モデル、再構築されたデータは、プロジェクトページで利用可能です。
関連論文リスト
- Model Inversion Robustness: Can Transfer Learning Help? [27.883074562565877]
Model Inversion (MI)攻撃は、機械学習モデルへのアクセスを悪用することで、プライベートトレーニングデータを再構築することを目的としている。
我々は,MI-robustモデルをレンダリングするために,Transfer Learning-based Defense against Model Inversion (TL-DMI)を提案する。
ベルとホイッスルを使わずにSOTA(State-of-the-art)MIロバスト性を実現する。
論文 参考訳(メタデータ) (2024-05-09T07:24:28Z) - Data-Free Hard-Label Robustness Stealing Attack [67.41281050467889]
本稿では,Data-Free Hard-Label Robustness Stealing(DFHL-RS)攻撃について紹介する。
ターゲットモデルのハードラベルをクエリするだけで、モデル精度とロバスト性の両方を盗むことができる。
本手法は,AutoAttackに対して77.86%,頑健な39.51%の精度を実現する。
論文 参考訳(メタデータ) (2023-12-10T16:14:02Z) - Army of Thieves: Enhancing Black-Box Model Extraction via Ensemble based
sample selection [10.513955887214497]
Model Stealing Attacks (MSA)では、ラベル付きデータセットを構築するために、機械学習モデルを繰り返しクエリされる。
本研究では,泥棒モデルとして深層学習モデルのアンサンブルの利用について検討する。
CIFAR-10データセットでトレーニングしたモデルに対して,従来よりも21%高い逆サンプル転送性を実現する。
論文 参考訳(メタデータ) (2023-11-08T10:31:29Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Unstoppable Attack: Label-Only Model Inversion via Conditional Diffusion
Model [14.834360664780709]
モデルアタック(MIA)は、深層学習モデルの到達不可能なトレーニングセットからプライベートデータを復元することを目的としている。
そこで本研究では,条件拡散モデル(CDM)を応用したMIA手法を開発し,対象ラベル下でのサンプルの回収を行う。
実験結果から,本手法は従来手法よりも高い精度で類似したサンプルをターゲットラベルに生成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-17T12:14:24Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Label-Only Model Inversion Attacks via Boundary Repulsion [12.374249336222906]
対象モデルの予測ラベルのみを用いて,プライベートトレーニングデータを逆転するアルゴリズムを提案する。
顔認識の例を用いて、BREP-MIで再構成した画像は、プライベートトレーニングデータのセマンティクスを再現することに成功した。
論文 参考訳(メタデータ) (2022-03-03T18:57:57Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。