論文の概要: Forgetting Any Data at Any Time: A Theoretically Certified Unlearning Framework for Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2502.17081v1
- Date: Mon, 24 Feb 2025 11:52:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:57:00.069948
- Title: Forgetting Any Data at Any Time: A Theoretically Certified Unlearning Framework for Vertical Federated Learning
- Title(参考訳): 任意のデータをいつでも忘れる:垂直的フェデレーション学習のための理論的に認定されていない学習フレームワーク
- Authors: Linian Wang, Leye Wang,
- Abstract要約: 理論的に保証された未学習機能を備えた最初のVFLフレームワークを紹介する。
従来のアプローチとは異なり、私たちのソリューションはモデルとデータに依存しず、普遍的な互換性を提供します。
私たちのフレームワークは非同期のアンラーニングをサポートします。
- 参考スコア(独自算出の注目度): 8.127710748771992
- License:
- Abstract: Privacy concerns in machine learning are heightened by regulations such as the GDPR, which enforces the "right to be forgotten" (RTBF), driving the emergence of machine unlearning as a critical research field. Vertical Federated Learning (VFL) enables collaborative model training by aggregating a sample's features across distributed parties while preserving data privacy at each source. This paradigm has seen widespread adoption in healthcare, finance, and other privacy-sensitive domains. However, existing VFL systems lack robust mechanisms to comply with RTBF requirements, as unlearning methodologies for VFL remain underexplored. In this work, we introduce the first VFL framework with theoretically guaranteed unlearning capabilities, enabling the removal of any data at any time. Unlike prior approaches -- which impose restrictive assumptions on model architectures or data types for removal -- our solution is model- and data-agnostic, offering universal compatibility. Moreover, our framework supports asynchronous unlearning, eliminating the need for all parties to be simultaneously online during the forgetting process. These advancements address critical gaps in current VFL systems, ensuring compliance with RTBF while maintaining operational flexibility.We make all our implementations publicly available at https://github.com/wangln19/vertical-federated-unlearning.
- Abstract(参考訳): 機械学習におけるプライバシーの懸念は、「忘れられる権利」(RTBF)を強制するGDPR(GDPR)のような規制によって高められ、重要な研究分野としての機械学習の出現を促す。
Vertical Federated Learning (VFL)は、分散パーティ間でサンプル機能を集約し、各ソースでデータのプライバシを保存することで、協調的なモデルトレーニングを可能にする。
このパラダイムは、医療、金融、その他のプライバシーに敏感な領域で広く採用されている。
しかしながら、既存のVFLシステムにはRTBF要件に準拠する堅牢なメカニズムが欠如しており、VFLの未学習方法論は未検討のままである。
本研究では,理論上保証された未学習機能を備えた最初のVFLフレームワークを導入し,任意のデータをいつでも削除できるようにする。
モデルアーキテクチャや削除のためのデータ型に制限的な仮定を課している以前のアプローチとは異なり、私たちのソリューションはモデルとデータに依存しないもので、普遍的な互換性を提供します。
さらに、我々のフレームワークは非同期のアンラーニングをサポートし、忘れるプロセスの間、すべてのパーティが同時にオンラインになる必要がなくなる。
これらの進歩は、現在のVFLシステムにおける重要なギャップに対処し、運用の柔軟性を維持しながらRTBFに準拠することを保証する。
関連論文リスト
- Vertical Federated Learning in Practice: The Good, the Bad, and the Ugly [42.31182713177944]
本稿では,VFL(Vertical Federated Learning)アプリケーションにおける実世界のデータ分布を分析した。
本稿では,実際のVFLデータ分布に基づくVFLアルゴリズムの新たなデータ指向分類法を提案する。
これらの観測に基づいて、現在のVFL研究と実世界の応用とのギャップを埋めるための重要な研究の方向性を概説する。
論文 参考訳(メタデータ) (2025-02-12T07:03:32Z) - Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - FedQUIT: On-Device Federated Unlearning via a Quasi-Competent Virtual Teacher [4.291269657919828]
フェデレートラーニング(FL)は、機械学習モデルが協調的にトレーニングされた場合、個人のデータに対するより良いプライバシー保証を約束する。
FL参加者がその参加するFLフレームワークから離脱する権利を行使する場合、FLソリューションはすべての必要なステップを実行するべきである。
本稿では,FedQUITを提案する。FedQUITは知識蒸留を用いて,FLグローバルモデルからの忘れたデータの寄与を探索する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2024-08-14T14:36:28Z) - UIFV: Data Reconstruction Attack in Vertical Federated Learning [5.404398887781436]
Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
論文 参考訳(メタデータ) (2024-06-18T13:18:52Z) - A Comprehensive Study on Model Initialization Techniques Ensuring
Efficient Federated Learning [0.0]
フェデレートラーニング(FL)は、分散とプライバシ保護の方法で機械学習モデルをトレーニングするための有望なパラダイムとして登場した。
モデルに使用される手法の選択は、フェデレーション学習システムの性能、収束速度、通信効率、プライバシー保証において重要な役割を果たす。
本研究は,各手法のメリットとデメリットを慎重に比較,分類,記述し,さまざまなFLシナリオに適用性について検討する。
論文 参考訳(メタデータ) (2023-10-31T23:26:58Z) - Heterogeneous Decentralized Machine Unlearning with Seed Model
Distillation [47.42071293545731]
情報セキュリティ法は、訓練された機械学習モデルによって忘れられる無条件の権利を持つユーザーを許した。
蒸留したシードモデルを用いて,すべてのクライアントに対して,消去可能なアンサンブルを構築する,HDUSと呼ばれる分散アンラーニングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-08-25T09:42:54Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Secure Bilevel Asynchronous Vertical Federated Learning with Backward
Updating [159.48259714642447]
垂直拡張学習(VFL)は、多人数協調モデリングの要求とプライバシー漏洩の懸念により、注目を集めている。
我々は,vf$b2$を含む3つの新しいアルゴリズムを提案する新しいbftextlevel parallel architecture (vf$bfb2$)を提案する。
論文 参考訳(メタデータ) (2021-03-01T12:34:53Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。