論文の概要: The Devil's Advocate: Shattering the Illusion of Unexploitable Data
using Diffusion Models
- arxiv url: http://arxiv.org/abs/2303.08500v1
- Date: Wed, 15 Mar 2023 10:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:08:45.286891
- Title: The Devil's Advocate: Shattering the Illusion of Unexploitable Data
using Diffusion Models
- Title(参考訳): the devil's advocate:拡散モデルを用いた爆発不能データの幻想を破る
- Authors: Hadi M. Dolatabadi, Sarah Erfani, Christopher Leckie
- Abstract要約: 本稿では,データ保護摂動の混乱を解消するために,慎重に設計したデノナイジング・プロセスが有用であることを示す。
AVATARと呼ばれる我々のアプローチは、様々なシナリオにおける最近のアベイラビリティーアタックに対して最先端のパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 11.510009152620666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Protecting personal data against the exploitation of machine learning models
is of paramount importance. Recently, availability attacks have shown great
promise to provide an extra layer of protection against the unauthorized use of
data to train neural networks. These methods aim to add imperceptible noise to
clean data so that the neural networks cannot extract meaningful patterns from
the protected data, claiming that they can make personal data "unexploitable."
In this paper, we provide a strong countermeasure against such approaches,
showing that unexploitable data might only be an illusion. In particular, we
leverage the power of diffusion models and show that a carefully designed
denoising process can defuse the ramifications of the data-protecting
perturbations. We rigorously analyze our algorithm, and theoretically prove
that the amount of required denoising is directly related to the magnitude of
the data-protecting perturbations. Our approach, called AVATAR, delivers
state-of-the-art performance against a suite of recent availability attacks in
various scenarios, outperforming adversarial training. Our findings call for
more research into making personal data unexploitable, showing that this goal
is far from over.
- Abstract(参考訳): 機械学習モデルの活用から個人情報を保護することが最重要である。
近年、アベイラビリティ・アタックは、ニューラルネットワークをトレーニングするためのデータの不正使用に対して、追加の保護層を提供することを約束している。
これらの手法は、ニューラルネットワークが保護されたデータから有意義なパターンを抽出できないように、データのクリーン化に不可避なノイズを加えることを目的としている。
本稿では,このようなアプローチに対する強力な対策として,探索不能なデータが錯覚にしかならないことを示す。
特に,拡散モデルのパワーを活用し,慎重に設計された復調処理により,データ保護摂動の混乱を解消できることを示す。
我々はアルゴリズムを厳密に分析し、必要な分極の量がデータ保護摂動の大きさと直接関係があることを理論的に証明する。
AVATARと呼ばれる我々のアプローチは、様々なシナリオにおける最近のアベイラビリティアタックに対して最先端のパフォーマンスを提供し、敵の訓練よりも優れています。
われわれの調査結果は、個人データの公開不能化に関するさらなる研究を求めている。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Footprints of Data in a Classifier Model: The Privacy Issues and Their Mitigation through Data Obfuscation [0.9208007322096533]
トレーニングデータのフットプリントを 予測モデルに埋め込むことは
テストデータとトレーニングデータのパフォーマンス品質の違いは、モデルをトレーニングしたデータの受動的識別を引き起こす。
この研究は、データフットプリントから生じる脆弱性に対処することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-02T13:56:37Z) - Nonlinear Transformations Against Unlearnable Datasets [4.876873339297269]
自動スクラップは、データ所有者の許可なしにディープラーニングモデルのデータを収集する一般的な方法として際立っている。
近年,このデータ収集手法に関するプライバシー問題に取り組み始めている。
学習不可能(unlearnable)な例と呼ばれるこれらのアプローチによって生成されたデータは、ディープラーニングモデルによって"学習"される。
論文 参考訳(メタデータ) (2024-06-05T03:00:47Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Unlearnable Examples for Diffusion Models: Protect Data from Unauthorized Exploitation [25.55296442023984]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。