論文の概要: Unlearnable Examples Give a False Sense of Data Privacy: Understanding and Relearning
- arxiv url: http://arxiv.org/abs/2306.02064v2
- Date: Sun, 13 Apr 2025 08:18:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:45:46.190814
- Title: Unlearnable Examples Give a False Sense of Data Privacy: Understanding and Relearning
- Title(参考訳): 学習不可能な例:データプライバシの虚偽感覚:理解と再学習
- Authors: Pucheng Dang, Xing Hu, Kaidi Xu, Jinhao Duan, Di Huang, Husheng Han, Rui Zhang, Zidong Du,
- Abstract要約: 学習不可能な例は、公開データに知覚不能な摂動を加えることで、学習不可能な例を生成する。
本稿では、学習不可能な例を打破するために特別に設計された自己適応型トレーニングフレームワークであるプログレッシブ・ステージド・トレーニングを提案する。
本手法は,文学におけるすべての最先端手法の難解性を回避している。
- 参考スコア(独自算出の注目度): 31.2971146235291
- License:
- Abstract: Unlearnable examples are proposed to prevent third parties from exploiting unauthorized data, which generates unlearnable examples by adding imperceptible perturbations to public publishing data. These unlearnable examples proficiently misdirect the model training process, leading it to focus on learning perturbation features while neglecting the semantic features of the image. In this paper, we make an in-depth analysis and observe that models can learn both image features and perturbation features of unlearnable examples at an early training stage, but are rapidly trapped in perturbation features learning since the shallow layers tend to learn on perturbation features and propagate harmful activations to deeper layers. Based on the observations, we propose Progressive Staged Training, a self-adaptive training framework specially designed to break unlearnable examples. The proposed framework effectively prevents models from becoming trapped in learning perturbation features. We evaluated our method on multiple model architectures over diverse datasets, e.g., CIFAR-10, CIFAR-100, and ImageNet-mini. Our method circumvents the unlearnability of all state-of-the-art methods in the literature, revealing that existing unlearnable examples give a false sense of privacy protection and provide a reliable baseline for further evaluation of unlearnable techniques.
- Abstract(参考訳): 公開データに不可避な摂動を加えることによって、第三者が無許可データを利用するのを防止するために、無許可の例が提案されている。
これらの学習不可能な例は、モデルトレーニングプロセスがうまく行っていないため、画像の意味的特徴を無視しながら摂動の特徴を学ぶことに重点を置いている。
本稿では, モデルが未学習例のイメージ特徴と摂動特徴の両方を早期の訓練段階で学習できるが, 浅い層は摂動特徴を学習し, 有害な活性化を深層に伝播させる傾向があるため, 摂動特徴の学習は急速に妨げられていることを示す。
本研究は,学習不可能な事例を打破するために特別に設計された自己適応型学習フレームワークであるプログレッシブ・ステージド・トレーニングを提案する。
提案フレームワークは,モデルが摂動特性を学習する際の障害となるのを効果的に防止する。
我々は,CIFAR-10,CIFAR-100,ImageNet-miniなどの多種多様なデータセット上での複数のモデルアーキテクチャについて評価を行った。
本手法は, 文献中のすべての最先端手法の未学習性を回避し, 既存の未学習事例が誤ったプライバシー保護の感覚を与え, 未学習手法のさらなる評価のための信頼性の高いベースラインを提供することを明らかにした。
関連論文リスト
- Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - Boosting Verified Training for Robust Image Classifications via
Abstraction [20.656457368486876]
本稿では,ロバストな画像分類器のための新しい,抽象的,認証されたトレーニング手法を提案する。
間隔のトレーニングにより、同じ間隔にマッピングされた全ての摂動画像を同じラベルに分類する。
また,この学習手法により,健全かつ完全なブラックボックス検証手法が実現される。
論文 参考訳(メタデータ) (2023-03-21T02:38:14Z) - Meta-free representation learning for few-shot learning via stochastic
weight averaging [13.6555672824229]
転写学習を用いたショット分類の最近の研究は、エピソードなメタラーニングアルゴリズムの有効性と効率に課題を提起している。
数ショットの回帰と分類のための正確で信頼性の高いモデルを得るための新しい移動学習法を提案する。
論文 参考訳(メタデータ) (2022-04-26T17:36:34Z) - Disrupting Model Training with Adversarial Shortcuts [12.31803688544684]
画像分類設定のための概念実証手法を提案する。
本稿では,モデルが意味的特徴よりも非破壊的な信号に頼ることを奨励する,敵対的ショートカットの概念に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-06-12T01:04:41Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - DeFlow: Learning Complex Image Degradations from Unpaired Data with
Conditional Flows [145.83812019515818]
本論文では,不対データから画像劣化を学習するDeFlowを提案する。
共有フローデコーダネットワークの潜在空間における劣化過程をモデル化する。
共同画像復元と超解像におけるDeFlowの定式化を検証した。
論文 参考訳(メタデータ) (2021-01-14T18:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。