論文の概要: From Head to Tail: Efficient Black-box Model Inversion Attack via Long-tailed Learning
- arxiv url: http://arxiv.org/abs/2503.16266v1
- Date: Thu, 20 Mar 2025 15:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 22:26:36.754886
- Title: From Head to Tail: Efficient Black-box Model Inversion Attack via Long-tailed Learning
- Title(参考訳): 頭から爪へ:長期学習による効率的なブラックボックスモデル逆転攻撃
- Authors: Ziang Li, Hongguang Zhang, Juan Wang, Meihui Chen, Hongxin Hu, Wenzhe Yi, Xiaoyang Xu, Mengda Yang, Chenjun Ma,
- Abstract要約: Model Inversion Attacks (MIA) は、プライベートトレーニングデータをモデルから再構築することを目的としており、プライバシーの漏洩につながる。
ブラックボックス設定のための高解像度指向・クエリ効率MIAであるSMILE(Surrogate Model-based Inversion with Long-tailed Enhancement)を導入する。
実験の結果,SMILEはクエリオーバヘッドの5%しか必要とせず,既存の最先端のブラックボックスMIAよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 16.558225793059645
- License:
- Abstract: Model Inversion Attacks (MIAs) aim to reconstruct private training data from models, leading to privacy leakage, particularly in facial recognition systems. Although many studies have enhanced the effectiveness of white-box MIAs, less attention has been paid to improving efficiency and utility under limited attacker capabilities. Existing black-box MIAs necessitate an impractical number of queries, incurring significant overhead. Therefore, we analyze the limitations of existing MIAs and introduce Surrogate Model-based Inversion with Long-tailed Enhancement (SMILE), a high-resolution oriented and query-efficient MIA for the black-box setting. We begin by analyzing the initialization of MIAs from a data distribution perspective and propose a long-tailed surrogate training method to obtain high-quality initial points. We then enhance the attack's effectiveness by employing the gradient-free black-box optimization algorithm selected by NGOpt. Our experiments show that SMILE outperforms existing state-of-the-art black-box MIAs while requiring only about 5% of the query overhead.
- Abstract(参考訳): モデル・インバージョン・アタック(MIA)は、特に顔認識システムにおいて、プライバシの漏洩につながる、モデルからプライベートトレーニングデータを再構築することを目的としている。
多くの研究がWhite-box MIAの有効性を高めているが、攻撃能力の制限により効率と実用性の向上にはあまり注意が払われていない。
既存のブラックボックスMIAは非現実的なクエリ数を必要とし、かなりのオーバーヘッドを発生させる。
そこで我々は既存のMIAの限界を分析し、ブラックボックス設定のための高解像度でクエリ効率のMIAであるSMILE(Surrogate Model-based Inversion with Long-tailed Enhancement)を導入する。
まず、データ分散の観点からMIAの初期化を分析し、高品質な初期点を得るための長期的サロゲート訓練法を提案する。
NGOptによって選択された勾配のないブラックボックス最適化アルゴリズムを用いて攻撃の有効性を高める。
実験の結果,SMILEはクエリオーバヘッドの5%しか必要とせず,既存の最先端のブラックボックスMIAよりも優れていることがわかった。
関連論文リスト
- PPO-MI: Efficient Black-Box Model Inversion via Proximal Policy Optimization [0.0]
モデル反転攻撃は、訓練されたモデルからプライベートトレーニングデータを再構築しようとすることで、重大なプライバシーリスクを引き起こす。
我々は,ブラックボックスモデルインバージョン攻撃のための新しい強化学習ベースのフレームワークであるPPO-MIを提案する。
提案手法は, エージェントが生成モデルの潜伏空間をナビゲートし, プライベートトレーニングサンプルを再構成するマルコフ決定プロセスとして, インバージョンタスクを定式化する。
論文 参考訳(メタデータ) (2025-02-20T08:57:45Z) - Hyperparameters in Score-Based Membership Inference Attacks [6.249768559720121]
メンバーシップ推論攻撃(MIA)は、機械学習モデルによるプライバシー漏洩を評価する貴重なフレームワークとして登場した。
本稿では,攻撃者が事前知識を持っていない場合に,MIAのシャドウモデルを訓練するためのハイパーパラメータを選択する手法を提案する。
トレーニングデータを用いたHPOの実行がMIAの脆弱性を増大させるという統計的に有意な証拠は見つからない。
論文 参考訳(メタデータ) (2025-02-10T11:44:46Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
メンバーシップ推論攻撃(MIA)は、特定のインスタンスがターゲットモデルのトレーニングデータの一部であるかどうかを判断することを目的としている。
大規模言語モデル(LLM)にMIAを適用することは、事前学習データの大規模化と、会員シップのあいまいさによって、ユニークな課題をもたらす。
EM-MIAは,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練するLLMの新しいMIA手法である。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - CALoR: Towards Comprehensive Model Inversion Defense [43.2642796582236]
Model Inversion Attacks (MIAs)は、プライバシに敏感なトレーニングデータを、リリースされた機械学習モデルにエンコードされた知識から回復することを目的としている。
MIA分野の最近の進歩は、複数のシナリオにおける攻撃性能を大幅に向上させた。
信頼性適応と低ランク圧縮を統合した堅牢な防御機構を提案する。
論文 参考訳(メタデータ) (2024-10-08T08:44:01Z) - Protecting Privacy Through Approximating Optimal Parameters for Sequence Unlearning in Language Models [37.172662930947446]
言語モデル(LM)は、重大なプライバシーリスクを示す抽出攻撃に対して潜在的に脆弱である。
本稿では,事前学習したLMからターゲットトークンシーケンスを効果的に忘れる新しい未学習手法である,最適パラメータによるプライバシ保護(POP)を提案する。
POPは、9つの分類と4つのダイアログベンチマークにまたがって、保留後の顕著なパフォーマンスを示し、最先端を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2024-06-20T08:12:49Z) - Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior [36.101904669291436]
本稿では,入力クエリの出力フィードバックのみを用いて,ブラックボックスモデルに対するサンプル生成を目的としたブラックボックス逆攻撃について検討する。
ブラックボックス攻撃前の大域関数として代理モデルを利用する事前誘導ベイズ最適化(P-BO)アルゴリズムを提案する。
後悔境界に関する理論的解析は、P-BOの性能が悪影響を受けていることを示唆している。
論文 参考訳(メタデータ) (2024-05-29T14:05:16Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。