論文の概要: A Meta-learning Framework for Tuning Parameters of Protection Mechanisms
in Trustworthy Federated Learning
- arxiv url: http://arxiv.org/abs/2305.18400v3
- Date: Wed, 28 Feb 2024 13:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 19:12:02.936521
- Title: A Meta-learning Framework for Tuning Parameters of Protection Mechanisms
in Trustworthy Federated Learning
- Title(参考訳): 信頼あるフェデレーション学習における保護メカニズムの調整のためのメタラーニングフレームワーク
- Authors: Xiaojin Zhang, Yan Kang, Lixin Fan, Kai Chen, Qiang Yang
- Abstract要約: 信頼できるフェデレートラーニング(TFL)は通常、プライバシを保証するために保護メカニズムを活用する。
プライバシリーク, ユーティリティ損失, 効率低下のトレードオフを最適化する保護機構を見つける問題として, TFLを定式化するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 27.909662318838873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trustworthy Federated Learning (TFL) typically leverages protection
mechanisms to guarantee privacy. However, protection mechanisms inevitably
introduce utility loss or efficiency reduction while protecting data privacy.
Therefore, protection mechanisms and their parameters should be carefully
chosen to strike an optimal tradeoff between \textit{privacy leakage},
\textit{utility loss}, and \textit{efficiency reduction}. To this end,
federated learning practitioners need tools to measure the three factors and
optimize the tradeoff between them to choose the protection mechanism that is
most appropriate to the application at hand. Motivated by this requirement, we
propose a framework that (1) formulates TFL as a problem of finding a
protection mechanism to optimize the tradeoff between privacy leakage, utility
loss, and efficiency reduction and (2) formally defines bounded measurements of
the three factors. We then propose a meta-learning algorithm to approximate
this optimization problem and find optimal protection parameters for
representative protection mechanisms, including Randomization, Homomorphic
Encryption, Secret Sharing, and Compression. We further design estimation
algorithms to quantify these found optimal protection parameters in a practical
horizontal federated learning setting and provide a theoretical analysis of the
estimation error.
- Abstract(参考訳): 信頼できるフェデレートラーニング(TFL)は通常、プライバシを保証するために保護メカニズムを活用する。
しかし、保護機構は必然的にデータプライバシを保護しながら、ユーティリティ損失や効率の低下をもたらす。
したがって、保護機構とそのパラメータは、 \textit{privacy leakage} と \textit{utility loss} と \textit{efficiency reduction} の最適なトレードオフを打つために慎重に選択する必要がある。
この目的のために、フェデレートされた学習実践者は、3つの要因を測定し、それらの間のトレードオフを最適化し、目の前のアプリケーションに最も適した保護メカニズムを選択するツールが必要である。
本稿では,(1) プライバシー漏洩, ユーティリティ損失, 効率低下のトレードオフを最適化する保護機構の発見問題として, TFL を定式化する枠組みを提案し, (2) 3つの要因の有界測定を正式に定義する。
次に,この最適化問題を近似するメタラーニングアルゴリズムを提案し,ランダム化,準同型暗号,秘密共有,圧縮といった代表的な保護機構の最適保護パラメータを求める。
さらに,これらの最適保護パラメータを実用的な水平連関学習設定で定量化するための推定アルゴリズムの設計を行い,推定誤差の理論的解析を行う。
関連論文リスト
- One-Shot Safety Alignment for Large Language Models via Optimal Dualization [64.52223677468861]
本稿では,制約付きアライメントを等価な非制約アライメント問題に還元する双対化の観点を提案する。
我々は、閉形式を持つ滑らかで凸な双対函数を事前に最適化する。
我々の戦略は、モデルベースと嗜好ベースの設定における2つの実用的なアルゴリズムに導かれる。
論文 参考訳(メタデータ) (2024-05-29T22:12:52Z) - SecureBoost Hyperparameter Tuning via Multi-Objective Federated Learning [23.196686101682737]
SecureBoostは、準同型暗号化を活用して、垂直的なフェデレーション学習環境でデータのプライバシを保護するツリーブースティングアルゴリズムである。
SecureBoostは、高い計算複雑性とラベルリークのリスクに悩まされている。
最適解を求めるために,制約付き多目的SecureBoost (CMOSB) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-20T04:45:59Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Towards Achieving Near-optimal Utility for Privacy-Preserving Federated
Learning via Data Generation and Parameter Distortion [19.691227962303515]
フェデレートラーニング(FL)は、参加者がプライベートデータ情報を開示することなく、強化されたユーティリティでグローバルモデルを構築することを可能にする。
テキストプライバシーの維持と高モデルテキストティタリティ維持の要件を満たすために、様々な保護メカニズムを採用する必要がある。
論文 参考訳(メタデータ) (2023-05-07T14:34:15Z) - Optimizing Privacy, Utility and Efficiency in Constrained
Multi-Objective Federated Learning [20.627157142499378]
我々はNSGA-IIとPSLに基づく2つの改良されたCMOFLアルゴリズムを開発した。
3つのプライバシ保護機構のための,プライバシリーク,ユーティリティ損失,トレーニングコストの具体的な測定を設計する。
3つの保護機構のそれぞれで実施した実証実験により,提案アルゴリズムの有効性が示された。
論文 参考訳(メタデータ) (2023-04-29T17:55:38Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Trading Off Privacy, Utility and Efficiency in Federated Learning [22.53326117450263]
プライバシリーク、ユーティリティ損失、効率低下の間のトレードオフを定式化し、定量化する。
我々は, プライバシー漏洩, ユーティリティ損失, 効率の低下など, 広く認識されている保護機構の下位領域を解析した。
論文 参考訳(メタデータ) (2022-09-01T05:20:04Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization [76.51980153902774]
フェデレーテッド・ラーニング(FL)はパラメータ伝達中にFLモデルに対する外部攻撃に対して脆弱である。
本稿では,最先端の防御アグリゲーション機構に対処する有効なMPアルゴリズムを提案する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
論文 参考訳(メタデータ) (2021-01-28T03:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。