論文の概要: Unlearnable Examples For Time Series
- arxiv url: http://arxiv.org/abs/2402.02028v1
- Date: Sat, 3 Feb 2024 04:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 22:52:39.073095
- Title: Unlearnable Examples For Time Series
- Title(参考訳): 時系列の未知の例
- Authors: Yujing Jiang, Xingjun Ma, Sarah Monazam Erfani, James Bailey
- Abstract要約: 未学習の例(UEs)とは、Deep Neural Networks(DNN)に学習できないように修正されたトレーニングサンプルを指す。
DNNによる不正なトレーニングから時系列データを保護するための最初のUE生成手法を提案する。
- 参考スコア(独自算出の注目度): 33.83340340399046
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Unlearnable examples (UEs) refer to training samples modified to be
unlearnable to Deep Neural Networks (DNNs). These examples are usually
generated by adding error-minimizing noises that can fool a DNN model into
believing that there is nothing (no error) to learn from the data. The concept
of UE has been proposed as a countermeasure against unauthorized data
exploitation on personal data. While UE has been extensively studied on images,
it is unclear how to craft effective UEs for time series data. In this work, we
introduce the first UE generation method to protect time series data from
unauthorized training by deep learning models. To this end, we propose a new
form of error-minimizing noise that can be \emph{selectively} applied to
specific segments of time series, rendering them unlearnable to DNN models
while remaining imperceptible to human observers. Through extensive experiments
on a wide range of time series datasets, we demonstrate that the proposed UE
generation method is effective in both classification and generation tasks. It
can protect time series data against unauthorized exploitation, while
preserving their utility for legitimate usage, thereby contributing to the
development of secure and trustworthy machine learning systems.
- Abstract(参考訳): 未学習の例(UEs)とは、Deep Neural Networks(DNN)に学習できないように修正されたトレーニングサンプルを指す。
これらの例は、通常、DNNモデルを騙して、データから学ぶもの(エラーなし)が何もないと信じるようなエラー最小化ノイズを追加することで生成される。
個人データに対する不正なデータ利用に対する対策として,UEの概念が提案されている。
UEは画像上で広く研究されているが、時系列データに有効なUEを構築する方法は不明である。
本稿では,ディープラーニングモデルによる不正トレーニングから時系列データを保護する最初のue生成法を提案する。
そこで本研究では,時系列の特定のセグメントに適用可能な誤り最小化ノイズの新たな形式を提案する。
幅広い時系列データセットに関する広範な実験を通じて,提案手法が分類タスクと生成タスクの両方に有効であることを実証した。
時系列データを不正な搾取から保護すると同時に、正当な使用のためにそのユーティリティを保護し、セキュアで信頼性の高い機械学習システムの開発に寄与する。
関連論文リスト
- PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - The Devil's Advocate: Shattering the Illusion of Unexploitable Data
using Diffusion Models [14.018862290487617]
データ保護の摂動に対抗して、慎重に設計された分極処理が可能であることを示す。
AVATARと呼ばれる我々のアプローチは、最近のアベイラビリティーアタックに対して最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-03-15T10:20:49Z) - Unlearnable Clusters: Towards Label-agnostic Unlearnable Examples [128.25509832644025]
インターネット上の視覚的プライバシー漏洩に対して、未学習の例(UE)を開発することへの関心が高まっている。
UEは、目に見えないが学習不可能なノイズを付加したトレーニングサンプルであり、機械学習モデルの不正なトレーニングを防ぐことができる。
本稿では,無学習クラスタ (UC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-31T04:26:25Z) - Data Isotopes for Data Provenance in DNNs [27.549744883427376]
トレーニング中にDNNに“spurious features”を導入することで、ユーザがIthronicsと呼ぶ特別なデータポイントを作成できることを示します。
ユーザは、統計仮説テストを適用して、モデルが自分の同位体に関連する刺激的な特徴を学習したかどうかを、ユーザーのデータに基づいてトレーニングすることで検出することができる。
その結果,複数設定で有効性を確認し,高い精度で数百の同位体の検出と識別を行った。
論文 参考訳(メタデータ) (2022-08-29T21:28:35Z) - Effective and Efficient Training for Sequential Recommendation using
Recency Sampling [91.02268704681124]
本稿では,新しいRecency-based Smpling of Sequencesトレーニング目標を提案する。
提案手法により拡張されたモデルにより,最先端のBERT4Recに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T13:06:31Z) - One-Pixel Shortcut: on the Learning Preference of Deep Neural Networks [28.502489028888608]
Unlearnable Example (ULE) は、DNNのトレーニングのための不正使用からデータを保護することを目的としている。
逆行訓練では、誤り最小化ノイズの非学習性は著しく低下する。
本稿では,各画像の1ピクセルのみを摂動させ,データセットを学習不能にする,新しいモデルフリー手法であるemphOne-Pixel Shortcutを提案する。
論文 参考訳(メタデータ) (2022-05-24T15:17:52Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Unlearnable Examples: Making Personal Data Unexploitable [42.36793103856988]
誤り最小化ノイズは、学習例の1つ以上の誤差を0に減少させるために意図的に生成される。
サンプル型とクラス型の両方で誤差最小化ノイズの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2021-01-13T06:15:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。