論文の概要: REMISVFU: Vertical Federated Unlearning via Representation Misdirection for Intermediate Output Feature
- arxiv url: http://arxiv.org/abs/2512.10348v1
- Date: Thu, 11 Dec 2025 07:05:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.233516
- Title: REMISVFU: Vertical Federated Unlearning via Representation Misdirection for Intermediate Output Feature
- Title(参考訳): REMISVFU: 中間出力特徴に対する表現ミスダイレクトによる垂直フェデレーション・アンラーニング
- Authors: Wenhan Wu, Zhili He, Huanghuang Liang, Yili Gong, Jiawei Jiang, Chuang Hu, Dazhao Cheng,
- Abstract要約: 本稿では,スプリットVFLシステムにおける高速かつクライアントレベルのアンラーニングを実現するための,プラグアンドプレイ表現ミスダイレクトフレームワークであるREMISVFUを提案する。
REMISVFUは, バックドア攻撃の成功を抑え, クリーンな精度の約2.5%を犠牲にしている。
- 参考スコア(独自算出の注目度): 16.040317742756034
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data-protection regulations such as the GDPR grant every participant in a federated system a right to be forgotten. Federated unlearning has therefore emerged as a research frontier, aiming to remove a specific party's contribution from the learned model while preserving the utility of the remaining parties. However, most unlearning techniques focus on Horizontal Federated Learning (HFL), where data are partitioned by samples. In contrast, Vertical Federated Learning (VFL) allows organizations that possess complementary feature spaces to train a joint model without sharing raw data. The resulting feature-partitioned architecture renders HFL-oriented unlearning methods ineffective. In this paper, we propose REMISVFU, a plug-and-play representation misdirection framework that enables fast, client-level unlearning in splitVFL systems. When a deletion request arrives, the forgetting party collapses its encoder output to a randomly sampled anchor on the unit sphere, severing the statistical link between its features and the global model. To maintain utility for the remaining parties, the server jointly optimizes a retention loss and a forgetting loss, aligning their gradients via orthogonal projection to eliminate destructive interference. Evaluations on public benchmarks show that REMISVFU suppresses back-door attack success to the natural class-prior level and sacrifices only about 2.5% points of clean accuracy, outperforming state-of-the-art baselines.
- Abstract(参考訳): GDPRのようなデータ保護規則は、連合システムのすべての参加者に忘れられる権利を与える。
そのため、フェデレーテッド・アンラーニングは研究フロンティアとして現れ、学習モデルから特定の党の貢献を取り除き、残りの党の効用を維持することを目的としている。
しかし、ほとんどの非学習技術は、データがサンプルによって分割される水平連邦学習(HFL)に焦点を当てている。
対照的に、VFL(Vertical Federated Learning)は、補完的な特徴空間を持つ組織が、生データを共有せずにジョイントモデルをトレーニングすることを可能にする。
結果として生じる特徴分割アーキテクチャは、HFL指向の未学習メソッドを非効率にする。
本稿では,スプリットVFLシステムにおける高速かつクライアントレベルのアンラーニングを実現するための,プラグアンドプレイの表現ミス指向フレームワークであるREMISVFUを提案する。
削除要求が到着すると、忘れた当事者はそのエンコーダ出力を単位球上のランダムにサンプリングされたアンカーに崩壊させ、その特徴とグローバルモデルの間の統計的リンクを切断する。
残りのパーティの実用性を維持するため、サーバは保持損失と忘れ損失を共同で最適化し、直交投影を介して勾配を整列して破壊的干渉をなくす。
公開ベンチマークの評価によると、REMISVFUはバックドア攻撃の成功を自然なクラス・プライアレベルまで抑制し、クリーンな精度の2.5%しか犠牲にせず、最先端のベースラインを上回っている。
関連論文リスト
- Unlearning Clients, Features and Samples in Vertical Federated Learning [1.6124402884077915]
垂直学習(VFL)は研究コミュニティからはあまり注目されていない。
本稿では,未学習クライアント,未学習機能,未学習サンプルの3つの視点から,VFLにおける未学習について検討する。
知識蒸留(KD)をベースとしたVFU-KDを未学習のサンプルとして導入するため,勾配上昇に基づくVFU-GAを導入する。
論文 参考訳(メタデータ) (2025-01-23T14:10:02Z) - Federated Unlearning with Gradient Descent and Conflict Mitigation [11.263010875673492]
Federated Unlearning(FU)は、完全なリトレーニングなしでデータを削除するための有望な方法だと考えられている。
直交終末日(FedOSD)を用いたフェデレーション・アンラーニングを提案する。
論文 参考訳(メタデータ) (2024-12-28T16:23:10Z) - UA-PDFL: A Personalized Approach for Decentralized Federated Learning [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、データ漏洩なしにグローバルモデルを協調的に学習するように設計された、プライバシ保護機械学習パラダイムである。
この問題を軽減するために、分散統合学習(DFL)が提案され、すべてのクライアントが中央サーバなしでピアツーピア通信を行う。
我々は,DFLにおける非IID課題に対処するため,UA-PDFLという,分散化された分散学習フレームワークを支援する新しい単位表現を提案する。
論文 参考訳(メタデータ) (2024-12-16T11:27:35Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。