論文の概要: Probing then Editing: A Push-Pull Framework for Retain-Free Machine Unlearning in Industrial IoT
- arxiv url: http://arxiv.org/abs/2511.09414v1
- Date: Thu, 13 Nov 2025 01:53:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.558069
- Title: Probing then Editing: A Push-Pull Framework for Retain-Free Machine Unlearning in Industrial IoT
- Title(参考訳): Probing then Editing: 産業用IoTにおける無学習の維持のためのPush-Pullフレームワーク
- Authors: Jiao Chen, Weihua Li, Jianhua Tang,
- Abstract要約: 我々は、Probing then Editing (PTE)と呼ばれる、新しい保持不要な未学習フレームワークを提案する。
PTEは、アンラーニングをプローブ編集プロセスとしてフレーム化し、モデル独自の予測を用いて対応する編集命令を生成する。
このメカニズムから、PTEは、忘れられるデータと元のモデルのみを使用して、効率的でバランスの取れた知識編集を実現する。
- 参考スコア(独自算出の注目度): 6.973959179359068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In dynamic Industrial Internet of Things (IIoT) environments, models need the ability to selectively forget outdated or erroneous knowledge. However, existing methods typically rely on retain data to constrain model behavior, which increases computational and energy burdens and conflicts with industrial data silos and privacy compliance requirements. To address this, we propose a novel retain-free unlearning framework, referred to as Probing then Editing (PTE). PTE frames unlearning as a probe-edit process: first, it probes the decision boundary neighborhood of the model on the to-be-forgotten class via gradient ascent and generates corresponding editing instructions using the model's own predictions. Subsequently, a push-pull collaborative optimization is performed: the push branch actively dismantles the decision region of the target class using the editing instructions, while the pull branch applies masked knowledge distillation to anchor the model's knowledge on retained classes to their original states. Benefiting from this mechanism, PTE achieves efficient and balanced knowledge editing using only the to-be-forgotten data and the original model. Experimental results demonstrate that PTE achieves an excellent balance between unlearning effectiveness and model utility across multiple general and industrial benchmarks such as CWRU and SCUT-FD.
- Abstract(参考訳): 動的産業用IoT(Industrial Internet of Things)環境では、モデルは時代遅れや誤った知識を選択的に忘れる能力を必要とする。
しかし、既存の手法は、計算とエネルギーの負担を増大させ、産業データサイロやプライバシーコンプライアンス要求と矛盾するモデル行動を制限するためにデータを保持することに依存するのが一般的である。
そこで本稿では,Probing then Editing (PTE) と呼ばれる,保持不要な新しいアンラーニングフレームワークを提案する。
PTEは、探索編集プロセスとしてアンラーニングをフレーム化し、まず、勾配上昇によってモデルの決定境界近傍を探索し、モデル独自の予測を用いて対応する編集命令を生成する。
その後、プッシュブランチは、編集命令を用いてターゲットクラスの決定領域を積極的に分解し、プルブランチはマスク付き知識蒸留を適用して、保持されたクラスに関するモデルの知識を元の状態に固定する。
このメカニズムから、PTEは、忘れられるデータと元のモデルのみを使用して、効率的でバランスの取れた知識編集を実現する。
実験結果から,PTEはCWRUやSCUT-FDといった複数の一般および産業ベンチマークにおいて,未学習の有効性とモデルユーティリティとのバランスが良好であることが確認された。
関連論文リスト
- Orthogonal Projection Subspace to Aggregate Online Prior-knowledge for Continual Test-time Adaptation [67.80294336559574]
連続テスト時間適応(CTTA)は、新しいシナリオに継続的に適応するために、ソース事前訓練されたモデルを必要とするタスクである。
我々は、OoPkと呼ばれるオンライン事前知識を集約する新しいパイプラインOrthogonal Projection Subspaceを提案する。
論文 参考訳(メタデータ) (2025-06-23T18:17:39Z) - UniErase: Towards Balanced and Precise Unlearning in Language Models [69.04923022755547]
大規模言語モデル(LLM)は、古い情報問題に対処するために反復的な更新を必要とする。
UniEraseは、知識の未学習と能力保持の間の精度とバランスの取れたパフォーマンスを示す、新しいアンラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-05-21T15:53:28Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Goldfish: An Efficient Federated Unlearning Framework [3.956103498302838]
Goldfishは機械学習アルゴリズムのための新しいフレームワークだ。
基本モデル、損失関数、最適化、拡張の4つのモジュールで構成されている。
既存の機械学習アルゴリズムの妥当性の低い課題に対処するため,新しい損失関数を提案する。
論文 参考訳(メタデータ) (2024-04-04T03:29:41Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - SwapMoE: Serving Off-the-shelf MoE-based Large Language Models with Tunable Memory Budget [20.33693233516486]
我々は,学習可能なメモリ予算を備えたMoEベースの大規模言語モデルの効率的な機能を実現するためのフレームワークであるSwapMoEを紹介する。
SwapMoEは適切な精度を維持しながらメモリフットプリントを削減できることが実験で示されている。
論文 参考訳(メタデータ) (2023-08-29T05:25:21Z) - Ensemble Knowledge Distillation for CTR Prediction [46.92149090885551]
我々は知識蒸留(KD)に基づく新しいモデルトレーニング戦略を提案する。
KDは、教師モデルから学んだ知識を学生モデルに移すための教師学生学習フレームワークである。
本稿では,教師のゲーティングや蒸留損失による早期停止など,CTR予測のアンサンブル化を促進する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-11-08T23:37:58Z) - To Regularize or Not To Regularize? The Bias Variance Trade-off in
Regularized AEs [10.611727286504994]
AEモデルの生成決定論的品質に及ぼす潜伏剤の影響について検討する。
我々は、FlexAEと呼ばれるモデルが、AEベースの生成モデルのための新しい最先端技術であることを示します。
論文 参考訳(メタデータ) (2020-06-10T14:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。