論文の概要: BridgePure: Limited Protection Leakage Can Break Black-Box Data Protection
- arxiv url: http://arxiv.org/abs/2412.21061v2
- Date: Wed, 14 May 2025 04:17:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 15:30:05.45654
- Title: BridgePure: Limited Protection Leakage Can Break Black-Box Data Protection
- Title(参考訳): BridgePure:ブラックボックスのデータ保護を破る限定的な保護漏洩
- Authors: Yihan Wang, Yiwei Lu, Xiao-Shan Gao, Gautam Kamath, Yaoliang Yu,
- Abstract要約: このようなブラックボックス保護は、未配布のイン・ディストリビューション・データの小さなセットが利用可能であれば、著しく損なわれる可能性がある。
本稿では,(1)敵がブラックボックス保護を小さな無防備なデータセットでクエリすることで,容易に(保護されていない,保護されていない)ペアを取得できる,保護漏洩の新たな脅威モデルを提案する。
- 参考スコア(独自算出の注目度): 32.96197607698254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Availability attacks, or unlearnable examples, are defensive techniques that allow data owners to modify their datasets in ways that prevent unauthorized machine learning models from learning effectively while maintaining the data's intended functionality. It has led to the release of popular black-box tools (e.g., APIs) for users to upload personal data and receive protected counterparts. In this work, we show that such black-box protections can be substantially compromised if a small set of unprotected in-distribution data is available. Specifically, we propose a novel threat model of protection leakage, where an adversary can (1) easily acquire (unprotected, protected) pairs by querying the black-box protections with a small unprotected dataset; and (2) train a diffusion bridge model to build a mapping between unprotected and protected data. This mapping, termed BridgePure, can effectively remove the protection from any previously unseen data within the same distribution. BridgePure demonstrates superior purification performance on classification and style mimicry tasks, exposing critical vulnerabilities in black-box data protection. We suggest that practitioners implement multi-level countermeasures to mitigate such risks.
- Abstract(参考訳): アベイラビリティーアタック(Availability attack、または非学習不可能な例)は、データ所有者がデータセットを変更して、データの意図した機能を維持しながら、不正な機械学習モデルが効果的に学習することを防ぐ、防御的なテクニックである。
これは、ユーザが個人データをアップロードし、保護されたデータを受信するための人気のあるブラックボックスツール(例えばAPI)のリリースにつながった。
本研究は, ブラックボックス保護が, 少量の非保護インディストリビューションデータが利用可能であれば, 著しく損なわれる可能性があることを示す。
具体的には,(1)ブラックボックス保護を小さな未保護データセットでクエリすることで,敵が容易に(保護されていない,保護されていない)ペアを取得でき,(2)非保護データと保護データとのマッピングを構築するために拡散ブリッジモデルをトレーニングする,保護漏洩の新たな脅威モデルを提案する。
このマッピングは、BridgePureと呼ばれ、同じディストリビューション内で、これまで見つからなかったデータから、効果的に保護を取り除くことができる。
BridgePureは、分類とスタイルの模倣タスクにおいて優れた浄化性能を示し、ブラックボックスのデータ保護の重大な脆弱性を露呈する。
このようなリスクを軽減するために,実践者が多段階の対策を実施することを提案する。
関連論文リスト
- On Transfer-based Universal Attacks in Pure Black-box Setting [94.92884394009288]
攻撃性能における対象モデルデータの事前知識とクラス数の役割について検討する。
また、分析に基づいていくつかの興味深い洞察を与え、先行が伝達可能性スコアの過大評価を引き起こすことを示した。
論文 参考訳(メタデータ) (2025-04-11T10:41:20Z) - Targeted Data Poisoning for Black-Box Audio Datasets Ownership Verification [12.80649024603656]
本稿では,最近導入されたデータタグ付け手法の音声データに適応する。
データタグガントは、ニューラルネットワークが保護されたイメージデータセットでトレーニングされたかどうかを検証する方法である。
提案手法は,性能を損なうことなく,高い信頼性でデータセットの使用を検出できることを示す。
論文 参考訳(メタデータ) (2025-03-13T11:25:25Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - Privacy-preserving Universal Adversarial Defense for Black-box Models [20.968518031455503]
本稿では,対象モデルのパラメータやアーキテクチャへのアクセスを必要としない,汎用的なブラックボックス防御手法であるDUCDを紹介する。
このアプローチでは、データをクエリすることでターゲットモデルをクエリし、データのプライバシを保持しながら、ホワイトボックスサロゲートを生成します。
複数の画像分類データセットの実験では、DUCDは既存のブラックボックスディフェンスよりも優れており、ホワイトボックスディフェンスの精度と一致している。
論文 参考訳(メタデータ) (2024-08-20T08:40:39Z) - Covert Malicious Finetuning: Challenges in Safeguarding LLM Adaptation [86.05704141217036]
Black-boxファインタニングは、最先端の言語モデルをユーザのニーズに適応するための、新たなインターフェースである。
本研究では,検出を回避しながら,モデル安全性を損なう手法である隠れ悪意のある微調整を導入する。
論文 参考訳(メタデータ) (2024-06-28T17:05:46Z) - BB-Patch: BlackBox Adversarial Patch-Attack using Zeroth-Order Optimization [10.769992215544358]
敵の攻撃戦略は、敵が訓練データ、モデルパラメータ、配置中の入力にアクセスすることを前提としている。
入力画像のどこにでも適用可能な敵パッチを生成するブラックボックスの敵攻撃戦略を提案する。
論文 参考訳(メタデータ) (2024-05-09T18:42:26Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - The Devil's Advocate: Shattering the Illusion of Unexploitable Data
using Diffusion Models [14.018862290487617]
データ保護の摂動に対抗して、慎重に設計された分極処理が可能であることを示す。
AVATARと呼ばれる我々のアプローチは、最近のアベイラビリティーアタックに対して最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-03-15T10:20:49Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。