論文の概要: Mind the Remaining: Mechanism Design for Robust Federated Unlearning
- arxiv url: http://arxiv.org/abs/2410.15045v1
- Date: Sat, 19 Oct 2024 09:04:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:17:17.470122
- Title: Mind the Remaining: Mechanism Design for Robust Federated Unlearning
- Title(参考訳): 残留意識:ロバストなフェデレーション・アンラーニングのためのメカニズム設計
- Authors: Jiaqi Shao, Tao Lin, Bing Luo,
- Abstract要約: Federated Unlearning(FU)は、プライバシ規制のためのトレーニングされたモデルに対するターゲットクライアントの影響を取り除くことを目的としている。
FUは、グローバルモデルのパフォーマンス劣化や、残りのクライアントに対する不均一な影響など、副作用を導入することができる。
サーバとクライアントの両方でFUによって引き起こされる副作用を総合的に分析するフレームワークを初めて開発する。
- 参考スコア(独自算出の注目度): 6.322978909154803
- License:
- Abstract: Federated Unlearning (FU) aims to remove target clients' influence from trained models for privacy regulations. However, due to data distribution shifts, it can introduce side effects, including global model performance degradation and uneven impacts on the remaining clients. These effects potentially cause remaining clients to deviate, threatening the system's robustness. To address these challenges, we present a novel and robust mechanism modeling a Stackelberg game for FU. In this game, the server designs an optimal payment to stimulate remaining clients to participate in FU, ensuring unlearning effectiveness and stability. In response, the remaining clients strategically determine their participation level to maximize profit, accounting for offered payments and unlearning impacts. In modeling FU outcomes, we develop, for the first time, a comprehensive framework analytically capturing FU-induced side effects for both the server and clients. Based on this, we establish utility functions for the server and clients in FU, inherently determining their dynamic strategic decision-making. Our rigorous equilibrium analysis reveals how data heterogeneity affects the side effects in their utility and decision-making. Additionally, we develop a low-complexity algorithm for the non-convex optimization problem, enabling efficient computation of the equilibrium.
- Abstract(参考訳): Federated Unlearning(FU)は、トレーニング済みモデルからターゲットクライアントの影響を取り除くことを目的としている。
しかし、データ分散のシフトにより、グローバルモデルのパフォーマンス劣化や、残りのクライアントに対する不均一な影響など、副作用をもたらす可能性がある。
これらの影響は、残りのクライアントを逸脱させ、システムの堅牢性を脅かす可能性がある。
これらの課題に対処するために, FU 用の Stackelberg ゲームをモデリングする, 新しく頑健な機構を提案する。
このゲームでは、サーバは、未学習の有効性と安定性を確保するために、残りのクライアントにFUに参加するよう刺激する最適な支払いを設計する。
これに対し、残りのクライアントは、収益を最大化するための参加レベルを戦略的に決定し、提供された支払いと未学習の影響を考慮に入れます。
FU結果のモデリングにおいて、サーバとクライアントの両方に対するFU誘発副作用を解析的に分析する包括的なフレームワークを初めて開発する。
そこで本研究では,FFUにおけるサーバとクライアントのためのユーティリティ機能を構築し,その動的戦略決定を本質的に決定する。
我々の厳密な均衡分析は、データの不均一性がその効用と意思決定における副作用にどのように影響するかを明らかにする。
さらに、非凸最適化問題に対する低複雑さアルゴリズムを開発し、平衡の効率的な計算を可能にする。
関連論文リスト
- Meta-Learning for Speeding Up Large Model Inference in Decentralized Environments [17.309238729647287]
分散AIシステムにおける推論促進のためのメタラーニングベースのフレームワークを提案する。
従来の手法とは異なり,本フレームワークは各タスクの特徴に基づいて,最適な加速度戦略を体系的に同定する。
我々の結果は、分散AIシステムにおける推論加速に革命をもたらすメタラーニングの可能性を強調した。
論文 参考訳(メタデータ) (2024-10-28T04:29:16Z) - DPVS-Shapley:Faster and Universal Contribution Evaluation Component in Federated Learning [1.740992908651449]
動的Pruning Validation Set Shapley (DPVS-Shapley) というコンポーネントを導入する。
本手法は, 評価精度を損なうことなく, 元のデータセットを動的に刈り取ることにより, コントリビューション評価プロセスの高速化を図る。
論文 参考訳(メタデータ) (2024-10-19T13:01:44Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - On the Federated Learning Framework for Cooperative Perception [28.720571541022245]
フェデレーション学習は、コネクテッドおよび自律走行車間の認識、意思決定、計画において、データのプライバシ保護と協調的な拡張を可能にすることで、有望なソリューションを提供する。
本研究では,FedDWAアルゴリズム(Federated dynamic weighted aggregate, FedDWA)と呼ばれる,CPのための特殊な統合学習フレームワークを提案する。
このフレームワークは、動的クライアント重み付けをモデル収束の直接化に利用し、KLD(Kullback-Leibler divergence)を利用して非独立的かつ同一に分散された(Non-IID)データとアンバランスなデータの有害な影響を対処する新しい損失関数を統合する。
論文 参考訳(メタデータ) (2024-04-26T04:34:45Z) - Towards Independence Criterion in Machine Unlearning of Features and
Labels [9.790684060172662]
この研究は、分散シフトに直面した機械学習の複雑さを掘り下げるものだ。
本研究は、これらの課題に対処するために、影響関数と分布独立の原理を活用する新しいアプローチを導入する。
提案手法は, 効率的なデータ除去を容易にするだけでなく, モデルを動的に調整し, 一般化機能を維持する。
論文 参考訳(メタデータ) (2024-03-12T23:21:09Z) - Analyzing Operator States and the Impact of AI-Enhanced Decision Support
in Control Rooms: A Human-in-the-Loop Specialized Reinforcement Learning
Framework for Intervention Strategies [0.9378955659006951]
複雑な産業・化学プロセス制御室では、安全性と効率性に効果的な意思決定が不可欠である。
本稿では,AIに基づく意思決定支援システムが人間と機械のインタフェース改善に取り入れた影響と応用について検討する。
論文 参考訳(メタデータ) (2024-02-20T18:31:27Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - The Impact of Data on the Stability of Learning-Based Control- Extended
Version [63.97366815968177]
本稿では,Lyapunovをベースとした,認証制御性能に対するデータの影響の定量化手法を提案する。
ガウス過程を通じて未知系の力学をモデル化することにより、モデルの不確実性と安定性条件の満足度の間の相互関係を決定できる。
論文 参考訳(メタデータ) (2020-11-20T19:10:01Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。