論文の概要: Mind the Remaining: Mechanism Design for Robust Federated Unlearning
- arxiv url: http://arxiv.org/abs/2410.15045v1
- Date: Sat, 19 Oct 2024 09:04:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:17:17.470122
- Title: Mind the Remaining: Mechanism Design for Robust Federated Unlearning
- Title(参考訳): 残留意識:ロバストなフェデレーション・アンラーニングのためのメカニズム設計
- Authors: Jiaqi Shao, Tao Lin, Bing Luo,
- Abstract要約: Federated Unlearning(FU)は、プライバシ規制のためのトレーニングされたモデルに対するターゲットクライアントの影響を取り除くことを目的としている。
FUは、グローバルモデルのパフォーマンス劣化や、残りのクライアントに対する不均一な影響など、副作用を導入することができる。
サーバとクライアントの両方でFUによって引き起こされる副作用を総合的に分析するフレームワークを初めて開発する。
- 参考スコア(独自算出の注目度): 6.322978909154803
- License:
- Abstract: Federated Unlearning (FU) aims to remove target clients' influence from trained models for privacy regulations. However, due to data distribution shifts, it can introduce side effects, including global model performance degradation and uneven impacts on the remaining clients. These effects potentially cause remaining clients to deviate, threatening the system's robustness. To address these challenges, we present a novel and robust mechanism modeling a Stackelberg game for FU. In this game, the server designs an optimal payment to stimulate remaining clients to participate in FU, ensuring unlearning effectiveness and stability. In response, the remaining clients strategically determine their participation level to maximize profit, accounting for offered payments and unlearning impacts. In modeling FU outcomes, we develop, for the first time, a comprehensive framework analytically capturing FU-induced side effects for both the server and clients. Based on this, we establish utility functions for the server and clients in FU, inherently determining their dynamic strategic decision-making. Our rigorous equilibrium analysis reveals how data heterogeneity affects the side effects in their utility and decision-making. Additionally, we develop a low-complexity algorithm for the non-convex optimization problem, enabling efficient computation of the equilibrium.
- Abstract(参考訳): Federated Unlearning(FU)は、トレーニング済みモデルからターゲットクライアントの影響を取り除くことを目的としている。
しかし、データ分散のシフトにより、グローバルモデルのパフォーマンス劣化や、残りのクライアントに対する不均一な影響など、副作用をもたらす可能性がある。
これらの影響は、残りのクライアントを逸脱させ、システムの堅牢性を脅かす可能性がある。
これらの課題に対処するために, FU 用の Stackelberg ゲームをモデリングする, 新しく頑健な機構を提案する。
このゲームでは、サーバは、未学習の有効性と安定性を確保するために、残りのクライアントにFUに参加するよう刺激する最適な支払いを設計する。
これに対し、残りのクライアントは、収益を最大化するための参加レベルを戦略的に決定し、提供された支払いと未学習の影響を考慮に入れます。
FU結果のモデリングにおいて、サーバとクライアントの両方に対するFU誘発副作用を解析的に分析する包括的なフレームワークを初めて開発する。
そこで本研究では,FFUにおけるサーバとクライアントのためのユーティリティ機能を構築し,その動的戦略決定を本質的に決定する。
我々の厳密な均衡分析は、データの不均一性がその効用と意思決定における副作用にどのように影響するかを明らかにする。
さらに、非凸最適化問題に対する低複雑さアルゴリズムを開発し、平衡の効率的な計算を可能にする。
関連論文リスト
- FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Towards Fair, Robust and Efficient Client Contribution Evaluation in
Federated Learning [16.543724155324938]
FRECA(Fair, Robust, Efficient Client Assessment)と呼ばれる新しい手法を導入する。
FRECAはFedTruthというフレームワークを使用して、グローバルモデルの真実の更新を見積もり、すべてのクライアントからのコントリビューションのバランスをとり、悪意のあるクライアントからの影響をフィルタリングする。
実験の結果,FRECAはクライアントのコントリビューションをロバストな方法で正確かつ効率的に定量化できることがわかった。
論文 参考訳(メタデータ) (2024-02-06T21:07:12Z) - Price of Stability in Quality-Aware Federated Learning [11.59995920901346]
Federated Learning(FL)は、クライアントがローカルデータを交換することなく、共有グローバルモデルをトレーニングできる分散機械学習スキームである。
我々は,クライアントのインタラクションを新しいラベル記述ゲームとしてモデル化し,その均衡を特徴づける。
我々は、平衡結果が常に社会的に最適な解よりも低いグローバルモデル精度をもたらすことを証明している。
論文 参考訳(メタデータ) (2023-10-13T00:25:21Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Improved Churn Causal Analysis Through Restrained High-Dimensional
Feature Space Effects in Financial Institutions [9.84528076130809]
顧客チャーン(Customer Churn)は、ビジネスとの関係を終了するか、特定の期間における顧客エンゲージメントを減少させる。
顧客の獲得コストは、顧客の保持の5倍から6倍になり得るので、リスクの厳しい顧客への投資は賢明です。
本研究では、独立変数と相関し、チャーンに影響を及ぼす従属変数と因果関係にある相反する特徴を発見するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-23T00:45:35Z) - Incentive Mechanism Design for Unbiased Federated Learning with
Randomized Client Participation [31.2017942327673]
本稿では,ランダムなクライアント参加を伴うフェデレーション学習(FL)のためのゲーム理論インセンティブ機構を提案する。
我々は,サーバのモデル性能向上とクライアントの利益向上を両立させることを実証した。
論文 参考訳(メタデータ) (2023-04-17T04:05:57Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Stochastic Client Selection for Federated Learning with Volatile Clients [41.591655430723186]
Federated Learning(FL)は、プライバシ保護機械学習パラダイムである。
同期FLトレーニングの各ラウンドでは、参加できるクライアントはごくわずかである。
本稿では,この問題を解決するためのクライアント選択方式であるE3CSを提案する。
論文 参考訳(メタデータ) (2020-11-17T16:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。