論文の概要: MPRU: Modular Projection-Redistribution Unlearning as Output Filter for Classification Pipelines
- arxiv url: http://arxiv.org/abs/2510.26230v1
- Date: Thu, 30 Oct 2025 08:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.704428
- Title: MPRU: Modular Projection-Redistribution Unlearning as Output Filter for Classification Pipelines
- Title(参考訳): MPRU: 分類パイプラインの出力フィルタとしてのモジュラ射影再分配の学習
- Authors: Minyi Peng, Darian Gunamardi, Ivan Tjuawinata, Kwok-Yan Lam,
- Abstract要約: 本稿では,機械アンラーニング(MU)へのインセンティブ的アプローチを提案する。
学習は、最後のトレーニングシーケンスを逆転させることで行うことができる。これは、モデルの最後にプロジェクション-再配布層を追加することで実装される。
実験結果から,計算コストの低減を図った完全再学習モデルと一貫した出力が得られた。
- 参考スコア(独自算出の注目度): 23.370444162993707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a new and promising approach, existing machine unlearning (MU) works typically emphasize theoretical formulations or optimization objectives to achieve knowledge removal. However, when deployed in real-world scenarios, such solutions typically face scalability issues and have to address practical requirements such as full access to original datasets and model. In contrast to the existing approaches, we regard classification training as a sequential process where classes are learned sequentially, which we call \emph{inductive approach}. Unlearning can then be done by reversing the last training sequence. This is implemented by appending a projection-redistribution layer in the end of the model. Such an approach does not require full access to the original dataset or the model, addressing the challenges of existing methods. This enables modular and model-agnostic deployment as an output filter into existing classification pipelines with minimal alterations. We conducted multiple experiments across multiple datasets including image (CIFAR-10/100 using CNN-based model) and tabular datasets (Covertype using tree-based model). Experiment results show consistently similar output to a fully retrained model with a high computational cost reduction. This demonstrates the applicability, scalability, and system compatibility of our solution while maintaining the performance of the output in a more practical setting.
- Abstract(参考訳): 新しくて有望なアプローチとして、既存の機械アンラーニング(MU)の作業は通常、知識の除去を達成するための理論的な定式化や最適化の目的を強調する。
しかし、現実のシナリオにデプロイする場合、そのようなソリューションは通常スケーラビリティの問題に直面し、オリジナルのデータセットやモデルへの完全なアクセスのような実用的な要件に対処する必要があります。
既存のアプローチとは対照的に、分類訓練はクラスを逐次的に学習するシーケンシャルなプロセスであり、これを 'emph{inductive approach}' と呼ぶ。
アンラーニングは、最後のトレーニングシーケンスをリバースすることで行うことができる。
これは、モデルの最後にプロジェクション-再配布層を追加することで実装される。
このようなアプローチでは、元のデータセットやモデルへの完全なアクセスは必要とせず、既存のメソッドの課題に対処する。
これにより、最小限の変更で既存の分類パイプラインへの出力フィルタとしてのモジュラーおよびモデルに依存しないデプロイメントが可能になる。
画像(CNNベースモデルを用いたCIFAR-10/100)や表状データセット(木ベースモデルを用いたCovertype)など,複数のデータセットを対象に複数の実験を行った。
実験結果から,計算コストの低減を図った完全再学習モデルと一貫した出力が得られた。
これは、より実用的な環境で出力のパフォーマンスを維持しながら、ソリューションの適用性、スケーラビリティ、システムの互換性を示しています。
関連論文リスト
- On the Impossibility of Retrain Equivalence in Machine Unlearning [43.39599739799909]
機械学習は、モデルの出力に関する特定のトレーニングデータの"影響"を選択的に除去しようとする。
理想的なゴールは、保持されたデータのみに基づいて、スクラッチからトレーニングされたモデルと同一のトレーニング等価性である。
現代のパイプラインは、しばしば多段階のトレーニングを伴い、各ステージは異なるデータ分散と目的を持っている。
論文 参考訳(メタデータ) (2025-10-18T19:58:31Z) - Nonparametric Data Attribution for Diffusion Models [57.820618036556084]
生成モデルのデータ属性は、個々のトレーニング例がモデル出力に与える影響を定量化する。
生成画像とトレーニング画像のパッチレベルの類似性によって影響を測定する非パラメトリック属性法を提案する。
論文 参考訳(メタデータ) (2025-10-16T03:37:16Z) - SynthCoder: A Synthetical Strategy to Tune LLMs for Code Completion [7.668823606571788]
コード補完は、ソフトウェア工学における大規模言語モデル(LLM)の顕著な応用である。
本稿では,Fill-in-the-Middle(FIM)コード補完タスクにおける最先端技術を実現するために,業界をリードするプラクティスを統合するモデルであるSynthCoderを提案する。
論文 参考訳(メタデータ) (2025-08-21T12:23:49Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - MUSO: Achieving Exact Machine Unlearning in Over-Parameterized Regimes [19.664090734076712]
マシン・アンラーニング(MU)は、訓練されたモデルを特定のデータでトレーニングされたことがないかのように振る舞う。
本研究では,学習と学習のタスクを統一する交互最適化アルゴリズムを提案する。
このアルゴリズムの有効性は、数値実験によって確認され、様々なシナリオにおける未学習における優れた性能を強調している。
論文 参考訳(メタデータ) (2024-10-11T06:17:17Z) - AdaMerging: Adaptive Model Merging for Multi-Task Learning [68.75885518081357]
本稿では,Adaptive Model Merging (AdaMerging)と呼ばれる革新的な手法を紹介する。
本来のトレーニングデータに頼ることなく、タスクレベルでも階層的にも、モデルマージの係数を自律的に学習することを目指している。
AdaMergingは、現在の最先端のタスク演算のマージ方式と比較すると、パフォーマンスが11%向上している。
論文 参考訳(メタデータ) (2023-10-04T04:26:33Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - DORE: Document Ordered Relation Extraction based on Generative Framework [56.537386636819626]
本稿では,既存のDocREモデルの根本原因について検討する。
本稿では,モデルが学習しやすく,決定論的な関係行列から記号列と順序列を生成することを提案する。
4つのデータセットに対する実験結果から,提案手法は生成型DocREモデルの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-10-28T11:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。