論文の概要: Perturbation-Induced Linearization: Constructing Unlearnable Data with Solely Linear Classifiers
- arxiv url: http://arxiv.org/abs/2601.19967v2
- Date: Thu, 29 Jan 2026 15:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.33483
- Title: Perturbation-Induced Linearization: Constructing Unlearnable Data with Solely Linear Classifiers
- Title(参考訳): 摂動誘起線形化:単線形分類器による未学習データの構築
- Authors: Jinlin Liu, Wei Chen, Xiaojin Zhang,
- Abstract要約: 学習不可能な例では、データに知覚不可能な摂動を導入し、モデルが効果的に学習するのを防ぐ。
線形代理モデルのみを用いて摂動を生成する手法である摂動誘導線形化(PIL)を提案する。
PILは、計算時間を劇的に削減しつつ、既存のサロゲートベースの手法と同等または優れた性能を達成する。
- 参考スコア(独自算出の注目度): 7.1709130026195895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collecting web data to train deep models has become increasingly common, raising concerns about unauthorized data usage. To mitigate this issue, unlearnable examples introduce imperceptible perturbations into data, preventing models from learning effectively. However, existing methods typically rely on deep neural networks as surrogate models for perturbation generation, resulting in significant computational costs. In this work, we propose Perturbation-Induced Linearization (PIL), a computationally efficient yet effective method that generates perturbations using only linear surrogate models. PIL achieves comparable or better performance than existing surrogate-based methods while reducing computational time dramatically. We further reveal a key mechanism underlying unlearnable examples: inducing linearization to deep models, which explains why PIL can achieve competitive results in a very short time. Beyond this, we provide an analysis about the property of unlearnable examples under percentage-based partial perturbation. Our work not only provides a practical approach for data protection but also offers insights into what makes unlearnable examples effective.
- Abstract(参考訳): 深層モデルのトレーニングにWebデータを収集することは、ますます一般的になり、不正なデータ使用に対する懸念が高まっている。
この問題を緩和するため、学習不可能な例では、データに知覚不可能な摂動を導入し、モデルが効果的に学習することを防ぐ。
しかし、既存の手法は通常、摂動生成の代理モデルとしてディープニューラルネットワークに依存しており、計算コストが大幅に上昇する。
本研究では,線形サロゲートモデルのみを用いて摂動を生成する計算効率が高く,効率的な線形化法である摂動誘導線形化(PIL)を提案する。
PILは、計算時間を劇的に削減しつつ、既存のサロゲートベースの手法と同等または優れた性能を達成する。
より深いモデルに線形化を誘導し、PILが非常に短時間で競合的な結果が得られる理由を説明する。
さらに、パーセンテージに基づく部分摂動下での学習不可能な例の特性について分析する。
私たちの仕事は、データ保護のための実践的なアプローチを提供するだけでなく、学習不可能な例を効果的にするための洞察も提供します。
関連論文リスト
- Towards Provably Unlearnable Examples via Bayes Error Optimisation [14.262882776897372]
ベイズ誤差を体系的に最大化することで、学習不可能な例を構築するための新しい手法を提案する。
提案手法はベイズ誤差を確実に増大させ,未学習例とクリーンサンプルを混合した場合も有効である。
論文 参考訳(メタデータ) (2025-11-11T12:58:25Z) - Nonparametric Data Attribution for Diffusion Models [57.820618036556084]
生成モデルのデータ属性は、個々のトレーニング例がモデル出力に与える影響を定量化する。
生成画像とトレーニング画像のパッチレベルの類似性によって影響を測定する非パラメトリック属性法を提案する。
論文 参考訳(メタデータ) (2025-10-16T03:37:16Z) - Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Nonlinear Transformations Against Unlearnable Datasets [4.876873339297269]
自動スクラップは、データ所有者の許可なしにディープラーニングモデルのデータを収集する一般的な方法として際立っている。
近年,このデータ収集手法に関するプライバシー問題に取り組み始めている。
学習不可能(unlearnable)な例と呼ばれるこれらのアプローチによって生成されたデータは、ディープラーニングモデルによって"学習"される。
論文 参考訳(メタデータ) (2024-06-05T03:00:47Z) - Negative Preference Optimization: From Catastrophic Collapse to Effective Unlearning [28.059563581973432]
LLM(Large Language Models)は、事前トレーニング中に機密性のある、プライベートな、あるいは著作権のあるデータを持つことが多い。
LLMは、事前学習されたモデルから望ましくないデータの影響を取り除くことを目的としている。
我々は、ターゲットデータセットを効率的に解放できる単純なアライメントにインスパイアされた方法として、NPO(Negative Preference Optimization)を提案する。
論文 参考訳(メタデータ) (2024-04-08T21:05:42Z) - Scalable Higher-Order Tensor Product Spline Models [0.0]
本稿では,高階テンソル積スプラインモデルから高階テンソル積を導出する因子分解法を提案する。
本手法では,非線形特徴効果のすべての(高次)相互作用を,相互作用のないモデルに比例した計算コストで組み込むことが可能である。
論文 参考訳(メタデータ) (2024-02-02T01:18:48Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。