論文の概要: ADOM: Accelerated Decentralized Optimization Method for Time-Varying
Networks
- arxiv url: http://arxiv.org/abs/2102.09234v1
- Date: Thu, 18 Feb 2021 09:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:13:00.031999
- Title: ADOM: Accelerated Decentralized Optimization Method for Time-Varying
Networks
- Title(参考訳): adom:時間変動ネットワークのための高速化分散最適化手法
- Authors: Dmitry Kovalev, Egor Shulgin, Peter Richt\'arik, Alexander Rogozin,
Alexander Gasnikov
- Abstract要約: 本稿では,時間変動ネットワーク上の滑らかかつ強凸分散最適化のための高速化手法である adom を提案する。
ネットワーク構造のみに依存する一定の要因まで、その通信は加速されたNesterovメソッドのそれと同じです。
- 参考スコア(独自算出の注目度): 124.33353902111939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose ADOM - an accelerated method for smooth and strongly convex
decentralized optimization over time-varying networks. ADOM uses a dual oracle,
i.e., we assume access to the gradient of the Fenchel conjugate of the
individual loss functions. Up to a constant factor, which depends on the
network structure only, its communication complexity is the same as that of
accelerated Nesterov gradient method (Nesterov, 2003). To the best of our
knowledge, only the algorithm of Rogozin et al. (2019) has a convergence rate
with similar properties. However, their algorithm converges under the very
restrictive assumption that the number of network changes can not be greater
than a tiny percentage of the number of iterations. This assumption is hard to
satisfy in practice, as the network topology changes usually can not be
controlled. In contrast, ADOM merely requires the network to stay connected
throughout time.
- Abstract(参考訳): 本稿では,時間変動ネットワーク上の滑らかかつ強凸分散最適化のための高速化手法である adom を提案する。
ADOMは二重のオラクル、すなわち、個々の損失関数のフェンシェル共役の勾配にアクセスできると仮定する。
ネットワーク構造のみに依存する定数まで、その通信の複雑さは加速ネステロフ勾配法(nesterov, 2003)と同じである。
私たちの知識を最大限に活用するには、Rogozinらのアルゴリズムのみ。
(2019) 同様の性質を持つ収束率を有する。
しかし、それらのアルゴリズムは、ネットワーク変更の数がイテレーション数のごく一部に満たないという非常に限定的な仮定の下で収束する。
この仮定は、ネットワークトポロジの変更が通常制御できないため、実際には満たすのは難しい。
対照的に、ammは単にネットワークを時間を通して接続し続けることを要求する。
関連論文リスト
- Decentralized Optimization in Time-Varying Networks with Arbitrary Delays [22.40154714677385]
通信遅延によるネットワークの分散最適化問題を考察する。
そのようなネットワークの例としては、協調機械学習、センサーネットワーク、マルチエージェントシステムなどがある。
通信遅延を模倣するため、ネットワークに仮想非計算ノードを追加し、有向グラフを生成する。
論文 参考訳(メタデータ) (2024-05-29T20:51:38Z) - Decentralized Stochastic Proximal Gradient Descent with Variance
Reduction over Time-varying Networks [30.231314171218994]
分散学習において、ノードのネットワークは、通常、その局所的な目的の有限サムである全体的な目的関数を最小化するために協力する。
そこで本研究では,分散縮小手法を利用して分散学習を高速化する新しいアルゴリズムDPSVRGを提案する。
論文 参考訳(メタデータ) (2021-12-20T08:23:36Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Distributed Optimization, Averaging via ADMM, and Network Topology [0.0]
センサローカライゼーションの現実問題において,ネットワークトポロジと異なるアルゴリズムの収束率の関係について検討する。
また、ADMMと持ち上げマルコフ連鎖の間の興味深い関係を示すとともに、その収束を明示的に特徴づける。
論文 参考訳(メタデータ) (2020-09-05T21:44:39Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。