論文の概要: Unlearnable Examples: Making Personal Data Unexploitable
- arxiv url: http://arxiv.org/abs/2101.04898v2
- Date: Wed, 24 Feb 2021 22:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 20:39:57.657836
- Title: Unlearnable Examples: Making Personal Data Unexploitable
- Title(参考訳): Unlearnable Examples: 個人情報を公開不能にする
- Authors: Hanxun Huang, Xingjun Ma, Sarah Monazam Erfani, James Bailey, Yisen
Wang
- Abstract要約: 誤り最小化ノイズは、学習例の1つ以上の誤差を0に減少させるために意図的に生成される。
サンプル型とクラス型の両方で誤差最小化ノイズの有効性を実証的に検証する。
- 参考スコア(独自算出の注目度): 42.36793103856988
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The volume of "free" data on the internet has been key to the current success
of deep learning. However, it also raises privacy concerns about the
unauthorized exploitation of personal data for training commercial models. It
is thus crucial to develop methods to prevent unauthorized data exploitation.
This paper raises the question: \emph{can data be made unlearnable for deep
learning models?} We present a type of \emph{error-minimizing} noise that can
indeed make training examples unlearnable. Error-minimizing noise is
intentionally generated to reduce the error of one or more of the training
example(s) close to zero, which can trick the model into believing there is
"nothing" to learn from these example(s). The noise is restricted to be
imperceptible to human eyes, and thus does not affect normal data utility. We
empirically verify the effectiveness of error-minimizing noise in both
sample-wise and class-wise forms. We also demonstrate its flexibility under
extensive experimental settings and practicability in a case study of face
recognition. Our work establishes an important first step towards making
personal data unexploitable to deep learning models.
- Abstract(参考訳): インターネット上の「無料」データの量は、ディープラーニングの現在の成功の鍵となっている。
しかし、商用モデルのトレーニングのための個人情報の不正利用に関するプライバシー上の懸念も生じている。
したがって、不正なデータ利用を防止する方法を開発することが重要である。
この論文は、次のような疑問を提起する: \emph{can to be unlearnable for deep learning models?
本稿では,訓練例を学習不能にできる「emph{error-minimizing}」ノイズについて述べる。
誤り最小化ノイズは、0に近いトレーニング例の1つ以上のエラーを減らすために意図的に生成され、モデルがこれらの例から学ぶべき"何もない"と信じ込ませる可能性がある。
ノイズは人間の目では知覚できないよう制限されており、通常のデータユーティリティには影響しない。
サンプル・ワイド・クラスともに誤り最小化雑音の有効性を実証的に検証する。
また,顔認識を事例として,広範囲な実験環境と実用性において,その柔軟性を実証する。
私たちの研究は、個人データをディープラーニングモデルに展開不能にするための重要な第一歩を確立します。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Corrective Machine Unlearning [22.342035149807923]
我々は、未知の操作が学習モデルに与える影響を緩和する問題として、矯正機械学習を定式化する。
削除セットを使わずにスクラッチから再学習するなど、既存の未学習手法の多くは、有効な修正未学習のために、操作されたデータの大部分を識別する必要がある。
選択的シナプス減衰法(Selective Synaptic Dampening)は, 操作したサンプルのごく一部で, 有害な効果を学習することなく, 限られた成功を達成している。
論文 参考訳(メタデータ) (2024-02-21T18:54:37Z) - An Information Theoretic Approach to Machine Unlearning [45.600917449314444]
学びの鍵となる課題は、モデルのパフォーマンスを保ちながら、必要なデータをタイムリーに忘れることである。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - One-Pixel Shortcut: on the Learning Preference of Deep Neural Networks [28.502489028888608]
Unlearnable Example (ULE) は、DNNのトレーニングのための不正使用からデータを保護することを目的としている。
逆行訓練では、誤り最小化ノイズの非学習性は著しく低下する。
本稿では,各画像の1ピクセルのみを摂動させ,データセットを学習不能にする,新しいモデルフリー手法であるemphOne-Pixel Shortcutを提案する。
論文 参考訳(メタデータ) (2022-05-24T15:17:52Z) - Robust Unlearnable Examples: Protecting Data Against Adversarial
Learning [77.6015932710068]
本稿では,誤り最小化ノイズを付加することにより,ディープラーニングモデルにデータを学習不能にすることを提案する。
本稿では,敵の訓練から保護される頑健な学習不可能な事例を生成するための新しい手法を設計する。
実験により, 強靭な誤り最小化ノイズによる難読性は, 種々のシナリオにおいて, 敵の訓練からデータを効果的に保護できることが示唆された。
論文 参考訳(メタデータ) (2022-03-28T07:13:51Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。