論文の概要: Certifying the Right to Be Forgotten: Primal-Dual Optimization for Sample and Label Unlearning in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2512.23171v1
- Date: Mon, 29 Dec 2025 03:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.391126
- Title: Certifying the Right to Be Forgotten: Primal-Dual Optimization for Sample and Label Unlearning in Vertical Federated Learning
- Title(参考訳): 忘れられる権利の認定:垂直的フェデレーション学習におけるサンプルとラベルアンラーニングの2次最適化
- Authors: Yu Jiang, Xindi Tong, Ziyao Liu, Xiaoxi Zhang, Kwok-Yan Lam, Chee Wei Tan,
- Abstract要約: フェデレートされたアンラーニングにより、トレーニングされたモデルから特定のデータの影響を取り除くことができる。
原始双対アルゴリズムによるデータ除去のためのフェデレーション最適化法の提案
新しい未学習損失関数は、誤分類よりも分類の不確実性を促進する。
- 参考スコア(独自算出の注目度): 31.54643729002375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated unlearning has become an attractive approach to address privacy concerns in collaborative machine learning, for situations when sensitive data is remembered by AI models during the machine learning process. It enables the removal of specific data influences from trained models, aligning with the growing emphasis on the "right to be forgotten." While extensively studied in horizontal federated learning, unlearning in vertical federated learning (VFL) remains challenging due to the distributed feature architecture. VFL unlearning includes sample unlearning that removes specific data points' influence and label unlearning that removes entire classes. Since different parties hold complementary features of the same samples, unlearning tasks require cross-party coordination, creating computational overhead and complexities from feature interdependencies. To address such challenges, we propose FedORA (Federated Optimization for data Removal via primal-dual Algorithm), designed for sample and label unlearning in VFL. FedORA formulates the removal of certain samples or labels as a constrained optimization problem solved using a primal-dual framework. Our approach introduces a new unlearning loss function that promotes classification uncertainty rather than misclassification. An adaptive step size enhances stability, while an asymmetric batch design, considering the prior influence of the remaining data on the model, handles unlearning and retained data differently to efficiently reduce computational costs. We provide theoretical analysis proving that the model difference between FedORA and Train-from-scratch is bounded, establishing guarantees for unlearning effectiveness. Experiments on tabular and image datasets demonstrate that FedORA achieves unlearning effectiveness and utility preservation comparable to Train-from-scratch with reduced computation and communication overhead.
- Abstract(参考訳): 機械学習プロセス中にAIモデルによってセンシティブなデータが記憶されている状況に対して、フェデレートされたアンラーニングは、コラボレーティブ機械学習のプライバシー問題に対処するための魅力的なアプローチとなっている。
トレーニングされたモデルから特定のデータの影響を取り除くことを可能にし、"忘れられる権利"に重点を置いている。
水平的フェデレーション学習において広く研究されているが、垂直フェデレーション学習(VFL)におけるアンラーニングは、分散特徴アーキテクチャのため、依然として困難である。
VFLアンラーニングには、特定のデータポイントの影響を除去するサンプルアンラーニングと、クラス全体を除去するラベルアンラーニングが含まれる。
異なるパーティが同じサンプルの補完的な特徴を持っているため、非学習タスクは、相互調整を必要とし、機能間依存関係から計算オーバーヘッドと複雑さを生成する。
このような課題に対処するために,VFLにおけるアンラーニングのサンプルとラベルのためのFedORA (Federated Optimization for data removal via primal-dual Algorithm)を提案する。
FedORAは、特定のサンプルやラベルの削除を、原始双対フレームワークを用いて解決された制約付き最適化問題として定式化している。
提案手法では,誤分類ではなく,分類の不確実性を助長する未学習損失関数を導入する。
適応的なステップサイズは安定性を高め、非対称なバッチ設計は、モデルに残っていたデータの影響を考慮し、未学習のデータと保持データを異なる方法で処理し、計算コストを効率的に削減する。
我々は、FedORAとTrain-from-Scratchのモデル差が有界であることを証明する理論的解析を行い、未学習の有効性を保証する。
表と画像のデータセットの実験では、FedORAは計算と通信のオーバーヘッドを減らし、Train-from-Scratchに匹敵する非学習の有効性とユーティリティの保存を実現している。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Benchmarking Federated Machine Unlearning methods for Tabular Data [9.30408906787193]
マシンアンラーニングにより、モデルは要求時に特定のデータを忘れることができる。
本稿では,フェデレートされた環境での機械学習手法のベンチマークに関する先駆的な研究について述べる。
機械学習、ランダムフォレスト、ロジスティック回帰モデルの両方を用いて、この機能とインスタンスレベルでのアンラーニングについて検討する。
論文 参考訳(メタデータ) (2025-04-01T15:53:36Z) - Distribution-Level Feature Distancing for Machine Unlearning: Towards a Better Trade-off Between Model Utility and Forgetting [4.220336689294245]
本稿では,タスク関連特徴相関を保ちつつ,効率的にインスタンスを破棄する新しい手法である分散レベル特徴分散(DLFD)を提案する。
提案手法は, 特徴分布を忘れ試料と明確に異なるように最適化し, 単一の学習エポック内で有効結果を得る。
論文 参考訳(メタデータ) (2024-09-23T06:51:10Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Class-wise Federated Unlearning: Harnessing Active Forgetting with Teacher-Student Memory Generation [11.638683787598817]
能動的忘れ込みに基づく神経刺激型フェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、新しい記憶を利用して古い記憶を上書きすることで、既存の方法と差別化している。
本手法は,バックドア攻撃に対する未学習の完全性を実現する。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。