論文の概要: Flew Over Learning Trap: Learn Unlearnable Samples by Progressive Staged
Training
- arxiv url: http://arxiv.org/abs/2306.02064v1
- Date: Sat, 3 Jun 2023 09:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 20:25:02.793113
- Title: Flew Over Learning Trap: Learn Unlearnable Samples by Progressive Staged
Training
- Title(参考訳): flight over learning trap:プログレッシブステージトレーニングによる理解不能なサンプルの学習
- Authors: Pucheng Dang, Xing Hu, Kaidi Xu, Jinhao Duan, Di Huang, Husheng Han,
Rui Zhang, Zidong Du, Qi Guo, Yunji Chen
- Abstract要約: 非学習技術は、公開のためのデータに知覚不可能な摂動を加えることで、学習不可能なサンプルを生成する。
そこで本研究では,未学習サンプルのイメージ特徴と摂動特徴の両方を早期に学習できることを示す。
本研究では,学習摂動機能において,モデルが過度に適合することを効果的に防止する段階訓練を提案する。
- 参考スコア(独自算出の注目度): 28.17601195439716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlearning techniques are proposed to prevent third parties from exploiting
unauthorized data, which generate unlearnable samples by adding imperceptible
perturbations to data for public publishing. These unlearnable samples
effectively misguide model training to learn perturbation features but ignore
image semantic features. We make the in-depth analysis and observe that models
can learn both image features and perturbation features of unlearnable samples
at an early stage, but rapidly go to the overfitting stage since the shallow
layers tend to overfit on perturbation features and make models fall into
overfitting quickly. Based on the observations, we propose Progressive Staged
Training to effectively prevent models from overfitting in learning
perturbation features. We evaluated our method on multiple model architectures
over diverse datasets, e.g., CIFAR-10, CIFAR-100, and ImageNet-mini. Our method
circumvents the unlearnability of all state-of-the-art methods in the
literature and provides a reliable baseline for further evaluation of
unlearnable techniques.
- Abstract(参考訳): 公開のためのデータに知覚不可能な摂動を加えることにより、第三者が未許可データを利用するのを防ぐために、未学習技術が提案されている。
これらの学習不可能なサンプルは、摂動特徴を学習するが、画像の意味的特徴を無視するモデルトレーニングを効果的に誤解する。
深層解析を行い,未学習サンプルの画像特徴と摂動特徴の両方を早期に学習するが,浅層が摂動特徴に過度に適合し,モデルが急速に過度に収まる傾向にあるため,急速に過度に適応する。
そこで本研究では,学習の摂動特性が過剰に収まるのを効果的に防止するプログレッシブステージトレーニングを提案する。
我々は,CIFAR-10,CIFAR-100,ImageNet-miniなどの多様なデータセット上で,複数のモデルアーキテクチャについて評価を行った。
本手法は文献におけるすべての最先端手法の学習不能を回避し,学習不能手法のさらなる評価のための信頼性の高いベースラインを提供する。
関連論文リスト
- An Information Theoretic Approach to Machine Unlearning [45.600917449314444]
学びの鍵となる課題は、モデルのパフォーマンスを保ちながら、必要なデータをタイムリーに忘れることである。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - Boosting Verified Training for Robust Image Classifications via
Abstraction [20.656457368486876]
本稿では,ロバストな画像分類器のための新しい,抽象的,認証されたトレーニング手法を提案する。
間隔のトレーニングにより、同じ間隔にマッピングされた全ての摂動画像を同じラベルに分類する。
また,この学習手法により,健全かつ完全なブラックボックス検証手法が実現される。
論文 参考訳(メタデータ) (2023-03-21T02:38:14Z) - Meta-free representation learning for few-shot learning via stochastic
weight averaging [13.6555672824229]
転写学習を用いたショット分類の最近の研究は、エピソードなメタラーニングアルゴリズムの有効性と効率に課題を提起している。
数ショットの回帰と分類のための正確で信頼性の高いモデルを得るための新しい移動学習法を提案する。
論文 参考訳(メタデータ) (2022-04-26T17:36:34Z) - Disrupting Model Training with Adversarial Shortcuts [12.31803688544684]
画像分類設定のための概念実証手法を提案する。
本稿では,モデルが意味的特徴よりも非破壊的な信号に頼ることを奨励する,敵対的ショートカットの概念に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-06-12T01:04:41Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - DeFlow: Learning Complex Image Degradations from Unpaired Data with
Conditional Flows [145.83812019515818]
本論文では,不対データから画像劣化を学習するDeFlowを提案する。
共有フローデコーダネットワークの潜在空間における劣化過程をモデル化する。
共同画像復元と超解像におけるDeFlowの定式化を検証した。
論文 参考訳(メタデータ) (2021-01-14T18:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。