論文の概要: Transferable Unlearnable Examples
- arxiv url: http://arxiv.org/abs/2210.10114v1
- Date: Tue, 18 Oct 2022 19:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 13:25:27.372168
- Title: Transferable Unlearnable Examples
- Title(参考訳): 転送不能な例
- Authors: Jie Ren, Han Xu, Yuxuan Wan, Xingjun Ma, Lichao Sun, Jiliang Tang
- Abstract要約: 第三者が許可なくデータのトレーニングを行うのを防ぐために、学べない戦略が導入された。
公開前にユーザーのデータに摂動を追加することで、公開データセットでトレーニングされたモデルを無効にすることを目指している。
本稿では、学習不可能な効果を他のトレーニング設定やデータセットに伝達することを目的とした、クラスワイズ・セパビリティ・ディミナント(CSD)に基づく新しい学習不可能な戦略を提案する。
- 参考スコア(独自算出の注目度): 63.64357484690254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With more people publishing their personal data online, unauthorized data
usage has become a serious concern. The unlearnable strategies have been
introduced to prevent third parties from training on the data without
permission. They add perturbations to the users' data before publishing, which
aims to make the models trained on the perturbed published dataset invalidated.
These perturbations have been generated for a specific training setting and a
target dataset. However, their unlearnable effects significantly decrease when
used in other training settings and datasets. To tackle this issue, we propose
a novel unlearnable strategy based on Classwise Separability Discriminant
(CSD), which aims to better transfer the unlearnable effects to other training
settings and datasets by enhancing the linear separability. Extensive
experiments demonstrate the transferability of the proposed unlearnable
examples across training settings and datasets.
- Abstract(参考訳): 個人データをオンラインで公開する人が増えるにつれて、不正なデータの利用が深刻な懸念となっている。
第三者が許可なくデータをトレーニングすることを防ぐために、不可解な戦略が導入された。
公開前にユーザーのデータに摂動を追加し、乱れたデータセットでトレーニングされたモデルを無効にすることを目的としている。
これらの摂動は、特定のトレーニング設定とターゲットデータセットのために生成される。
しかし、他のトレーニング設定やデータセットで使用すると、その影響は大幅に減少する。
この問題に対処するために、線形分離性を高めて、学習不能な効果を他のトレーニング設定やデータセットに伝達することを目的とした、クラスワイズ・セパビリティ・差別(CSD)に基づく新しい学習不能戦略を提案する。
大規模な実験は、トレーニング設定とデータセット間で提案された非学習不可能な例の転送可能性を示す。
関連論文リスト
- Corrective Machine Unlearning [23.969562017133367]
データの操作や誤操作を検出すると、開発者が何ができるのかを調査する。
「矯正機械学習」は、未知の操作による影響を緩和する問題である。
我々は、ゴールドスタンダード・リトレーニング・トゥ・スクラッチを含む既存の未学習手法のほとんどは、操作されたデータの大部分を識別する必要があることを発見した。
論文 参考訳(メタデータ) (2024-02-21T18:54:37Z) - Fair Classifiers Without Fair Training: An Influence-Guided Data
Sampling Approach [34.09122690831707]
我々は、機密情報の漏洩を避けるために、公正な訓練アルゴリズムを実装することなく、公正な分類法を学習する。
提案手法の有効性を理論的に検証し,適切な分布シフトを持つデータセット上での従来型トレーニングにより,公平性差の上限とモデル一般化誤差の両方を低減できることを示した。
そこで,本研究では, 学習中のトレーニングデータを段階的に段階的に変化させる, 学習において, 新たなデータの機密属性にアクセスできない, あるいはトレーニングに使用するような, 学習中のトレーニングデータを段階的に変化させる, トラクタブルなソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - On-the-fly Denoising for Data Augmentation in Natural Language
Understanding [101.46848743193358]
よりクリーンなオリジナルデータに基づいて訓練された有機教師モデルによって提供されるソフトな拡張ラベルから学習する,データ拡張のためのオンザフライデノケーション手法を提案する。
本手法は,一般的な拡張手法に適用でき,テキスト分類と質問応答の両タスクの性能を一貫して向上させることができる。
論文 参考訳(メタデータ) (2022-12-20T18:58:33Z) - Non-Parametric Temporal Adaptation for Social Media Topic Classification [41.52878699836363]
縦断的ハッシュタグ予測の課題を通じて時間適応について検討した。
本手法は,高コストな勾配ベースの更新を伴わずに,最高のパラメトリックベースラインよりも64.12%向上する。
我々の高密度検索手法は、データプライバシ法に従って動的に削除されるユーザデータにも適しており、計算コストと性能損失は無視できる。
論文 参考訳(メタデータ) (2022-09-13T03:31:38Z) - Imbalanced data preprocessing techniques utilizing local data
characteristics [2.28438857884398]
データ不均衡は、異なるクラスから来るトレーニング観察の数の間の不均衡である。
この論文の焦点は、新しいデータ再サンプリング戦略の開発である。
論文 参考訳(メタデータ) (2021-11-28T11:48:26Z) - Online Coreset Selection for Rehearsal-based Continual Learning [65.85595842458882]
継続的な学習では、後に再生されるトレーニング例(コアセット)のサブセットを格納し、破滅的な忘れを軽減します。
提案するオンラインコアセット選択(OCS, Online Coreset Selection)は, 各イテレーションにおいて最も代表的で情報性の高いコアセットを選択するシンプルで効果的な方法である。
提案手法は,過去のタスクに対して高親和性サンプルを選択しながら,目標データセットへのモデル適応を最大化し,破滅的忘れを直接的に抑制する。
論文 参考訳(メタデータ) (2021-06-02T11:39:25Z) - Data-Free Adversarial Perturbations for Practical Black-Box Attack [25.44755251319056]
本研究では, 学習データ分布の知識を必要とせずに, 対象モデルを騙し, 対向的摂動を創り出すためのデータフリー手法を提案する。
提案手法は,攻撃者が訓練データにアクセスできない場合でも,現在のディープラーニングモデルが依然として危険であることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-03T02:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。