論文の概要: Task-Aware Machine Unlearning and Its Application in Load Forecasting
- arxiv url: http://arxiv.org/abs/2308.14412v2
- Date: Mon, 11 Mar 2024 11:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 16:27:44.101346
- Title: Task-Aware Machine Unlearning and Its Application in Load Forecasting
- Title(参考訳): タスク対応機械の学習と負荷予測への応用
- Authors: Wangkun Xu, Fei Teng
- Abstract要約: 本稿では、すでに訓練済みの予測器に対するデータセットの一部の影響を除去するために特別に設計された機械学習の概念を紹介する。
局所モデルパラメータ変化の感度を影響関数とサンプル再重み付けを用いて評価することにより,性能認識アルゴリズムを提案する。
リアルな負荷データセットを用いて,線形,CNN,Mixerベースの負荷予測器上で,未学習アルゴリズムを検証した。
- 参考スコア(独自算出の注目度): 4.00606516946677
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data privacy and security have become a non-negligible factor in load
forecasting. Previous researches mainly focus on training stage enhancement.
However, once the model is trained and deployed, it may need to `forget' (i.e.,
remove the impact of) part of training data if the these data are found to be
malicious or as requested by the data owner. This paper introduces the concept
of machine unlearning which is specifically designed to remove the influence of
part of the dataset on an already trained forecaster. However, direct
unlearning inevitably degrades the model generalization ability. To balance
between unlearning completeness and model performance, a performance-aware
algorithm is proposed by evaluating the sensitivity of local model parameter
change using influence function and sample re-weighting. Furthermore, we
observe that the statistical criterion such as mean squared error, cannot fully
reflect the operation cost of the downstream tasks in power system. Therefore,
a task-aware machine unlearning is proposed whose objective is a trilevel
optimization with dispatch and redispatch problems considered. We theoretically
prove the existence of the gradient of such an objective, which is key to
re-weighting the remaining samples. We tested the unlearning algorithms on
linear, CNN, and MLP-Mixer based load forecasters with a realistic load
dataset. The simulation demonstrates the balance between unlearning
completeness and operational cost. All codes can be found at
https://github.com/xuwkk/task_aware_machine_unlearning.
- Abstract(参考訳): データプライバシとセキュリティは、負荷予測において無視できない要素になっている。
これまでの研究は主に訓練段階の強化に焦点が当てられている。
しかし、モデルがトレーニングされ、デプロイされると、これらのデータが悪意のあるものであるか、あるいはデータ所有者が要求したように、トレーニングデータの'forget'(すなわち、影響を取り除かなければならない)が必要になる。
本稿では、すでに訓練済みの予測器に対するデータセットの一部の影響を除去するために特別に設計された機械学習の概念を紹介する。
しかし、直接学習は必然的にモデルの一般化能力を低下させる。
非学習完全性とモデル性能のバランスをとるために,局所モデルパラメータ変化の感度を影響関数とサンプル再重み付けを用いて評価し,性能認識アルゴリズムを提案する。
さらに,電力系統における下流タスクの運用コストを,平均二乗誤差などの統計的基準で完全に反映できないことも確認した。
そこで本研究では,三段階最適化を目標としたタスク認識マシンのアンラーニングを提案する。
このような目的の勾配の存在を理論的に証明し、残りのサンプルを再重み付けする鍵となる。
リアルな負荷データセットを用いて,線形,CNN,MLP-Mixerに基づく負荷予測器で未学習アルゴリズムを検証した。
シミュレーションは、未学習の完全性と運用コストのバランスを示す。
すべてのコードはhttps://github.com/xuwkk/task_aware_machine_unlearningにある。
関連論文リスト
- Machine Unlearning on Pre-trained Models by Residual Feature Alignment Using LoRA [15.542668474378633]
本稿では,事前学習モデルを用いた新しい機械学習手法を提案する。
LoRAを利用して、モデルの中間機能を事前訓練された特徴と残像に分解する。
本手法は,保持集合上のゼロ残差を学習し,未学習集合上でシフト残差を学習することを目的としている。
論文 参考訳(メタデータ) (2024-11-13T08:56:35Z) - What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Robust Machine Learning by Transforming and Augmenting Imperfect
Training Data [6.928276018602774]
この論文は、現代の機械学習のいくつかのデータ感度を探求する。
まず、トレーニングデータで測定された事前の人間の識別をMLが符号化するのを防ぐ方法について論じる。
次に、トレーニング中に予測忠実度を提供するが、デプロイ時に信頼性が低い突発的特徴を含むデータから学習する問題について論じる。
論文 参考訳(メタデータ) (2023-12-19T20:49:28Z) - TaskMet: Task-Driven Metric Learning for Model Learning [29.0053868393653]
ディープラーニングモデルは、トレーニング手順が認識していない可能性のある下流タスクにデプロイされることが多い。
本稿では,モデルのパラメータよりも1段階深いタスク損失信号を用いて,モデルがトレーニングした損失関数のパラメータを学習する。
このアプローチは、最適な予測モデル自体を変更するのではなく、下流のタスクにとって重要な情報を強調するためにモデル学習を変更する。
論文 参考訳(メタデータ) (2023-12-08T18:59:03Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Machine Unlearning for Causal Inference [0.6621714555125157]
モデルが与えられたユーザに関する情報(マシンアンラーニング)の学習/取得の一部を忘れることが重要である。
本稿では、因果推論のための機械学習の概念、特に確率スコアマッチングと治療効果推定について紹介する。
この研究で使用されるデータセットは、ジョブトレーニングプログラムの有効性を評価するために広く使用されているデータセットであるLalondeデータセットである。
論文 参考訳(メタデータ) (2023-08-24T17:27:01Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。