論文の概要: Decentralised Learning with Random Features and Distributed Gradient
Descent
- arxiv url: http://arxiv.org/abs/2007.00360v1
- Date: Wed, 1 Jul 2020 09:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 22:46:19.600947
- Title: Decentralised Learning with Random Features and Distributed Gradient
Descent
- Title(参考訳): ランダム特徴と分散勾配Descentを用いた分散学習
- Authors: Dominic Richards, Patrick Rebeschini and Lorenzo Rosasco
- Abstract要約: 本研究では,不規則な正規化とランダムな特徴を持つ分散グラディエントDescentの均質な環境下での一般化性能について検討する。
ステップサイズ,繰り返し回数,通信行列の逆スペクトルギャップ,ランダム特徴数の関数として,各エージェントの予測性能に高い確率境界を確立する。
本稿では,ランダムな特徴数,イテレーション数,サンプル数が予測性能に与える影響をシミュレーションで示す。
- 参考スコア(独自算出の注目度): 39.00450514924611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the generalisation performance of Distributed Gradient Descent
with Implicit Regularisation and Random Features in the homogenous setting
where a network of agents are given data sampled independently from the same
unknown distribution. Along with reducing the memory footprint, Random Features
are particularly convenient in this setting as they provide a common
parameterisation across agents that allows to overcome previous difficulties in
implementing Decentralised Kernel Regression. Under standard source and
capacity assumptions, we establish high probability bounds on the predictive
performance for each agent as a function of the step size, number of
iterations, inverse spectral gap of the communication matrix and number of
Random Features. By tuning these parameters, we obtain statistical rates that
are minimax optimal with respect to the total number of samples in the network.
The algorithm provides a linear improvement over single machine Gradient
Descent in memory cost and, when agents hold enough data with respect to the
network size and inverse spectral gap, a linear speed-up in computational
runtime for any network topology. We present simulations that show how the
number of Random Features, iterations and samples impact predictive
performance.
- Abstract(参考訳): エージェントのネットワークが同じ未知の分布から独立してサンプリングされる同種環境において,不規則な正規化とランダムな特徴を持つ分散勾配の一般化性能について検討する。
メモリフットプリントの削減に加えて、ランダム機能は、分散カーネル回帰を実装する以前の困難を克服するエージェント間で共通のパラメータ化を提供するため、この設定で特に便利である。
標準ソースとキャパシティの仮定の下で,各エージェントの予測性能に対する高い確率境界を,ステップサイズ,イテレーション数,通信行列の逆スペクトルギャップ,ランダム特徴数の関数として定めている。
これらのパラメータをチューニングすることにより、ネットワーク内のサンプル総数に対して最小最適である統計量を得る。
このアルゴリズムは、メモリコストの単一マシン勾配降下に対する線形改善と、エージェントがネットワークサイズと逆スペクトルギャップに関して十分なデータを保持する場合、任意のネットワークトポロジーに対する計算ランタイムにおける線形速度アップを提供する。
本稿では,ランダムな特徴数,イテレーション数,サンプル数が予測性能に与える影響をシミュレーションで示す。
関連論文リスト
- Nonuniform random feature models using derivative information [10.239175197655266]
ニューラルネットワークの初期化のための不均一なデータ駆動パラメータ分布を近似する関数の微分データに基づいて提案する。
We address the case of Heaviside and ReLU activation function and their smooth approximations (Sigmoid and softplus)。
入力点における近似微分データに基づいて、これらの正確な密度を単純化し、非常に効率的なサンプリングを可能にし、複数のシナリオにおいて最適なネットワークに近いランダムな特徴モデルの性能をもたらすことを提案する。
論文 参考訳(メタデータ) (2024-10-03T01:30:13Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Regularization, early-stopping and dreaming: a Hopfield-like setup to
address generalization and overfitting [0.0]
正規化損失関数に勾配降下を適用し,最適ネットワークパラメータを求める。
この枠組みの中で、最適なニューロン相互作用行列は、繰り返し学習プロトコルによって修正されたヘビアン核に対応する。
論文 参考訳(メタデータ) (2023-08-01T15:04:30Z) - Just One Byte (per gradient): A Note on Low-Bandwidth Decentralized
Language Model Finetuning Using Shared Randomness [86.61582747039053]
分散環境での言語モデルトレーニングは、交換の通信コストによって制限される。
分散微調整を低帯域幅で行うために,共有ランダムネスを用いた最近の作業を拡張した。
論文 参考訳(メタデータ) (2023-06-16T17:59:51Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - The Bures Metric for Generative Adversarial Networks [10.69910379275607]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成する高性能な生成手法である。
実バッチの多様性と偽バッチの多様性を一致させることを提案する。
多様性マッチングはモード崩壊を著しく低減し, サンプル品質に肯定的な影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T12:04:41Z) - Fundamental Limits of Ridge-Regularized Empirical Risk Minimization in
High Dimensions [41.7567932118769]
経験的リスク最小化アルゴリズムは、様々な推定や予測タスクで広く利用されている。
本稿では,コンベックスEMMの統計的精度に関する基礎的限界を推論のために初めて特徴づける。
論文 参考訳(メタデータ) (2020-06-16T04:27:38Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。