論文の概要: SecureFedYJ: a safe feature Gaussianization protocol for Federated
Learning
- arxiv url: http://arxiv.org/abs/2210.01639v1
- Date: Tue, 4 Oct 2022 14:36:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:01:31.995417
- Title: SecureFedYJ: a safe feature Gaussianization protocol for Federated
Learning
- Title(参考訳): securefedyj: フェデレーション学習のための安全な機能gaussianizationプロトコル
- Authors: Tanguy Marchand, Boris Muzellec, Constance Beguier, Jean Ogier du
Terrail, Mathieu Andreux
- Abstract要約: プライバシー制約下でのクロスサイロ・フェデレート・ラーニング・セッティングにおけるYJ変換の適用問題について検討する。
初めて、YJ負の対数類似度が実際に凸であることを証明し、指数探索で最適化する。
我々は、最終的なパラメータよりも多くの情報を漏らすことなく、プール等価YJ変換を行うフェデレーションアルゴリズムSecureFedYJを提案する。
- 参考スコア(独自算出の注目度): 5.021115870910447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Yeo-Johnson (YJ) transformation is a standard parametrized per-feature
unidimensional transformation often used to Gaussianize features in machine
learning. In this paper, we investigate the problem of applying the YJ
transformation in a cross-silo Federated Learning setting under privacy
constraints. For the first time, we prove that the YJ negative log-likelihood
is in fact convex, which allows us to optimize it with exponential search. We
numerically show that the resulting algorithm is more stable than the
state-of-the-art approach based on the Brent minimization method. Building on
this simple algorithm and Secure Multiparty Computation routines, we propose
SecureFedYJ, a federated algorithm that performs a pooled-equivalent YJ
transformation without leaking more information than the final fitted
parameters do. Quantitative experiments on real data demonstrate that, in
addition to being secure, our approach reliably normalizes features across
silos as well as if data were pooled, making it a viable approach for safe
federated feature Gaussianization.
- Abstract(参考訳): yeo-johnson (yj) 変換は、機械学習の特徴をガウス化するためによく用いられる標準パラメトリゼーション単位の一次元変換である。
本稿では,プライバシー制約下でのクロスサイロなフェデレーション学習環境におけるYJ変換の適用問題について検討する。
初めて、YJ負の対数類似度が実際に凸であることを証明し、指数探索で最適化する。
得られたアルゴリズムはブレント最小化法に基づく最先端手法よりも安定であることを示す。
この単純なアルゴリズムとセキュアなマルチパーティ計算ルーチンに基づいて、最終的なパラメータよりも多くの情報を漏らすことなくプール等価YJ変換を行うフェデレーションアルゴリズムSecureFedYJを提案する。
実データに対する定量的な実験は、安全であることに加えて、サイロ間の機能を確実に正規化し、データがプールされた場合、安全なフェデレーション機能ガウス化のための有効なアプローチとなることを証明します。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Riemannian Federated Learning via Averaging Gradient Stream [8.75592575216789]
本稿では,RFedAGS(Federated Averaging Gradient Stream)アルゴリズムの開発と解析を行う。
合成および実世界のデータを用いて数値シミュレーションを行い,提案したRFedAGSの性能を実証した。
論文 参考訳(メタデータ) (2024-09-11T12:28:42Z) - Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling [22.256068524699472]
本研究では,これらの問題に対処するために,Annealed Importance Smpling (AIS)アプローチを提案する。
シークエンシャルモンテカルロサンプリング器とVIの強度を組み合わせることで、より広い範囲の後方分布を探索し、徐々にターゲット分布に接近する。
実験結果から,本手法はより厳密な変動境界,高い対数類似度,より堅牢な収束率で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-13T08:09:05Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Regret Bounds for Expected Improvement Algorithms in Gaussian Process
Bandit Optimization [63.8557841188626]
期待されている改善(EI)アルゴリズムは、不確実性の下で最適化するための最も一般的な戦略の1つである。
本稿では,GP予測平均を通した標準既存値を持つEIの変種を提案する。
我々のアルゴリズムは収束し、$mathcal O(gamma_TsqrtT)$の累積後悔境界を達成することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:17:53Z) - Private Alternating Least Squares: Practical Private Matrix Completion
with Tighter Rates [34.023599653814415]
ユーザレベルのプライバシの下で、差分的プライベート(DP)行列補完の問題について検討する。
本稿では,Alternating-Least-Squares (ALS) 方式の差分型を設計する。
論文 参考訳(メタデータ) (2021-07-20T23:19:11Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - The Strength of Nesterov's Extrapolation in the Individual Convergence
of Nonsmooth Optimization [0.0]
ネステロフの外挿は、非滑らかな問題に対して勾配降下法の個人収束を最適にする強さを持つことを証明している。
提案手法は,設定の非滑らかな損失を伴って正規化学習タスクを解くためのアルゴリズムの拡張である。
本手法は,大規模な1-正規化ヒンジロス学習問題の解法として有効である。
論文 参考訳(メタデータ) (2020-06-08T03:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。