論文の概要: Soft Weighted Machine Unlearning
- arxiv url: http://arxiv.org/abs/2505.18783v1
- Date: Sat, 24 May 2025 16:40:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.660098
- Title: Soft Weighted Machine Unlearning
- Title(参考訳): ソフトウェイトマシンアンラーニング
- Authors: Xinbao Qiao, Ningning Ding, Yushi Cheng, Meng Zhang,
- Abstract要約: 凸2次プログラミング問題を解析的に解くことにより、各サンプルに調整された重みを割り当てる重み付き影響関数を導入する。
提案したソフトウェイト方式は汎用性が高く,既存のほとんどの未学習アルゴリズムにシームレスに統合可能であることを実証する。
フェアネスとロバストネス駆動のタスクにおいて、ソフトウェイトされたスキームは、フェアネス/ロバストネスの指標においてハードウェイトされたスキームを著しく上回る。
- 参考スコア(独自算出の注目度): 7.696293975773435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning, as a post-hoc processing technique, has gained widespread adoption in addressing challenges like bias mitigation and robustness enhancement, colloquially, machine unlearning for fairness and robustness. However, existing non-privacy unlearning-based solutions persist in using binary data removal framework designed for privacy-driven motivation, leading to significant information loss, a phenomenon known as over-unlearning. While over-unlearning has been largely described in many studies as primarily causing utility degradation, we investigate its fundamental causes and provide deeper insights in this work through counterfactual leave-one-out analysis. In this paper, we introduce a weighted influence function that assigns tailored weights to each sample by solving a convex quadratic programming problem analytically. Building on this, we propose a soft-weighted framework enabling fine-grained model adjustments to address the over-unlearning challenge. We demonstrate that the proposed soft-weighted scheme is versatile and can be seamlessly integrated into most existing unlearning algorithms. Extensive experiments show that in fairness- and robustness-driven tasks, the soft-weighted scheme significantly outperforms hard-weighted schemes in fairness/robustness metrics and alleviates the decline in utility metric, thereby enhancing machine unlearning algorithm as an effective correction solution.
- Abstract(参考訳): 機械学習は、ポストホック処理技術として、バイアス緩和やロバストネス強化、口語で言えば、公正性とロバストネスのためのマシンアンラーニングといった課題に広く採用されている。
しかし、既存の非プライバシ非学習ベースのソリューションは、プライバシ駆動のモチベーションのために設計されたバイナリデータ削除フレームワークを使用して継続する。
オーバーアンラーニングは、主にユーティリティ劣化を引き起こすと多くの研究で説明されてきたが、本研究の根本的な原因を調査し、反ファクトフル・ワン・アウト分析を通じて、この研究に深い洞察を与える。
本稿では,凸2次プログラミング問題を解析的に解くことにより,各サンプルに調整重みを割り当てる重み付き影響関数を提案する。
そこで本研究では,この過度な学習課題に対処するために,細粒度モデル調整が可能なソフトウェイトフレームワークを提案する。
提案したソフトウェイト方式は汎用性が高く,既存のほとんどの未学習アルゴリズムにシームレスに統合可能であることを実証する。
広汎な実験により、フェアネスとロバストネス駆動のタスクにおいて、ソフトウェイトされたスキームは、フェアネス/ロバストネスの指標においてハードウェイトされたスキームを著しく上回り、ユーティリティメトリックの低下を軽減し、効率的な修正ソリューションとしての機械学習アルゴリズムの強化が示される。
関連論文リスト
- Unlocking the Potential of Difficulty Prior in RL-based Multimodal Reasoning [69.64809103333839]
先行情報に対する問題の難易度を明示的にモデル化し,多モーダル推論における強化学習に基づく微調整の有効性を検証した。
提案手法は,2段階学習データのみを2K+0.6Kとする多モード数学的推論ベンチマークにおいて有意な性能を示す。
論文 参考訳(メタデータ) (2025-05-19T15:43:10Z) - Instance-Level Difficulty: A Missing Perspective in Machine Unlearning [13.052520843129363]
完全インスタンスレベルのアンラーニング性能分析により,機械学習を困難にさせる難易度について検討する。
特に,データポイントの学習を困難にする4つの要因を要約する。
機械学習の研究は、未学習のインスタンスレベルの難しさに注意を払うべきだと我々は主張する。
論文 参考訳(メタデータ) (2024-10-03T23:41:42Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Goldfish: An Efficient Federated Unlearning Framework [3.956103498302838]
Goldfishは機械学習アルゴリズムのための新しいフレームワークだ。
基本モデル、損失関数、最適化、拡張の4つのモジュールで構成されている。
既存の機械学習アルゴリズムの妥当性の低い課題に対処するため,新しい損失関数を提案する。
論文 参考訳(メタデータ) (2024-04-04T03:29:41Z) - Dataset Condensation Driven Machine Unlearning [0.0]
データ規制要件とプライバシ保護機械学習の現在のトレンドは、機械学習の重要性を強調している。
我々は,機械学習のプライバシ,ユーティリティ,効率のバランスをとるために,新しいデータセット凝縮手法と革新的なアンラーニング手法を提案する。
本稿では,機械のアンラーニングを計測するための新しい効果的なアプローチを提案し,その適用方法として,メンバシップ推論とモデル逆転攻撃の防御を提案する。
論文 参考訳(メタデータ) (2024-01-31T21:48:25Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Robust Deep Reinforcement Learning Scheduling via Weight Anchoring [7.570246812206769]
我々は、重みアンカーを用いてニューラルネットワークの望ましい振る舞いを培養し、固定する。
ウェイトアンカーは、他の学習問題の解に近い学習問題の解を見つけるために用いられる。
その結果,シミュレーション環境を増強する技術に匹敵する性能が得られた。
論文 参考訳(メタデータ) (2023-04-20T09:30:23Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - A Novel Plug-and-Play Approach for Adversarially Robust Generalization [38.72514422694518]
本稿では,MLモデルを摂動テストデータから保護するために,逆向きに堅牢なトレーニングを採用する頑健なフレームワークを提案する。
私たちの貢献は、計算学と統計学の両方の観点から見ることができます。
論文 参考訳(メタデータ) (2022-08-19T17:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。