論文の概要: BridgePure: Revealing the Fragility of Black-box Data Protection
- arxiv url: http://arxiv.org/abs/2412.21061v1
- Date: Mon, 30 Dec 2024 16:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:04:59.855786
- Title: BridgePure: Revealing the Fragility of Black-box Data Protection
- Title(参考訳): BridgePure: Black-boxデータ保護の脆弱性を明らかにする
- Authors: Yihan Wang, Yiwei Lu, Xiao-Shan Gao, Gautam Kamath, Yaoliang Yu,
- Abstract要約: ブラックボックスの保護は、少数の非保護インディストリビューションデータが利用可能であれば、実質的にバイパスすることができる。
相手(1)は、ブラックボックス保護を保護されていないデータセットでクエリすることで、容易に(保護されていない、保護されていない)ペアを取得できる。
このマッピングは、BridgePureと呼ばれ、同じディストリビューション内で、これまで見つからなかったデータから、効果的に保護を取り除くことができる。
- 参考スコア(独自算出の注目度): 32.96197607698254
- License:
- Abstract: Availability attacks, or unlearnable examples, are defensive techniques that allow data owners to modify their datasets in ways that prevent unauthorized machine learning models from learning effectively while maintaining the data's intended functionality. It has led to the release of popular black-box tools for users to upload personal data and receive protected counterparts. In this work, we show such black-box protections can be substantially bypassed if a small set of unprotected in-distribution data is available. Specifically, an adversary can (1) easily acquire (unprotected, protected) pairs by querying the black-box protections with the unprotected dataset; and (2) train a diffusion bridge model to build a mapping. This mapping, termed BridgePure, can effectively remove the protection from any previously unseen data within the same distribution. Under this threat model, our method demonstrates superior purification performance on classification and style mimicry tasks, exposing critical vulnerabilities in black-box data protection.
- Abstract(参考訳): アベイラビリティ攻撃(アベイラビリティ攻撃、英: Availability attack)は、データ所有者がデータセットを変更できる防御技術であり、データ意図の機能を維持しながら、不正な機械学習モデルが効果的に学習することを防ぐ。
これは、ユーザーが個人データをアップロードし、保護されたデータを受信するための人気のあるブラックボックスツールのリリースにつながった。
本研究では,そのようなブラックボックス保護が,少数の非保護インディストリビューションデータが利用可能であれば,実質的に回避可能であることを示す。
具体的には、(1)ブラックボックス保護を保護されていないデータセットにクエリすることで容易に(保護されていない、保護されていない)ペアを取得でき、(2)拡散ブリッジモデルをトレーニングしてマッピングを構築することができる。
このマッピングは、BridgePureと呼ばれ、同じディストリビューション内で、これまで見つからなかったデータから、効果的に保護を取り除くことができる。
この脅威モデルの下で,本手法は,ブラックボックスデータ保護の重大な脆弱性を露呈し,分類やスタイルの模倣作業において優れた浄化性能を示す。
関連論文リスト
- Privacy-preserving Universal Adversarial Defense for Black-box Models [20.968518031455503]
本稿では,対象モデルのパラメータやアーキテクチャへのアクセスを必要としない,汎用的なブラックボックス防御手法であるDUCDを紹介する。
このアプローチでは、データをクエリすることでターゲットモデルをクエリし、データのプライバシを保持しながら、ホワイトボックスサロゲートを生成します。
複数の画像分類データセットの実験では、DUCDは既存のブラックボックスディフェンスよりも優れており、ホワイトボックスディフェンスの精度と一致している。
論文 参考訳(メタデータ) (2024-08-20T08:40:39Z) - Covert Malicious Finetuning: Challenges in Safeguarding LLM Adaptation [86.05704141217036]
Black-boxファインタニングは、最先端の言語モデルをユーザのニーズに適応するための、新たなインターフェースである。
本研究では,検出を回避しながら,モデル安全性を損なう手法である隠れ悪意のある微調整を導入する。
論文 参考訳(メタデータ) (2024-06-28T17:05:46Z) - BB-Patch: BlackBox Adversarial Patch-Attack using Zeroth-Order Optimization [10.769992215544358]
敵の攻撃戦略は、敵が訓練データ、モデルパラメータ、配置中の入力にアクセスすることを前提としている。
入力画像のどこにでも適用可能な敵パッチを生成するブラックボックスの敵攻撃戦略を提案する。
論文 参考訳(メタデータ) (2024-05-09T18:42:26Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Reinforcement Learning-Based Black-Box Model Inversion Attacks [23.30144908939099]
モデル反転攻撃は、機械学習モデルのトレーニングに使用されるプライベートデータを再構築する。
パブリックデータセットから知識を抽出するためにGAN(Generative Adversarial Networks)を利用したホワイトボックスモデルインバージョン攻撃が注目されている。
強化学習に基づくブラックボックスモデルインバージョン攻撃を提案する。
論文 参考訳(メタデータ) (2023-04-10T14:41:16Z) - The Devil's Advocate: Shattering the Illusion of Unexploitable Data
using Diffusion Models [14.018862290487617]
データ保護の摂動に対抗して、慎重に設計された分極処理が可能であることを示す。
AVATARと呼ばれる我々のアプローチは、最近のアベイラビリティーアタックに対して最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-03-15T10:20:49Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。