論文の概要: Adaptive Decentralized Composite Optimization via Three-Operator Splitting
- arxiv url: http://arxiv.org/abs/2602.17545v1
- Date: Thu, 19 Feb 2026 16:59:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.22484
- Title: Adaptive Decentralized Composite Optimization via Three-Operator Splitting
- Title(参考訳): 3-Operator Splittingによる適応分散型複合最適化
- Authors: Xiaokai Chen, Ilya Kuruzov, Gesualdo Scutari,
- Abstract要約: エージェントは局所的に滑らかな凸損失と非滑らかな凸拡張値項を最小化する。
エージェントは,軽量なmin-consensusプロトコルと組み合わさって,局所的なバックトラック処理によってステップを適応的に調整する分散化手法を提案する。
- 参考スコア(独自算出の注目度): 8.547205551848462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper studies decentralized optimization over networks, where agents minimize a sum of {\it locally} smooth (strongly) convex losses and plus a nonsmooth convex extended value term. We propose decentralized methods wherein agents {\it adaptively} adjust their stepsize via local backtracking procedures coupled with lightweight min-consensus protocols. Our design stems from a three-operator splitting factorization applied to an equivalent reformulation of the problem. The reformulation is endowed with a new BCV preconditioning metric (Bertsekas-O'Connor-Vandenberghe), which enables efficient decentralized implementation and local stepsize adjustments. We establish robust convergence guarantees. Under mere convexity, the proposed methods converge with a sublinear rate. Under strong convexity of the sum-function, and assuming the nonsmooth component is partly smooth, we further prove linear convergence. Numerical experiments corroborate the theory and highlight the effectiveness of the proposed adaptive stepsize strategy.
- Abstract(参考訳): エージェントは局所的に滑らかな凸損失と非滑らかな凸拡張値項の和を最小化する。
エージェントを適応的に調整する分散化手法を,軽量なmin-consensusプロトコルと組み合わせた局所的バックトラック手法により提案する。
我々の設計は、問題の等価な再構成に適用される3つの演算子分割係数化に起因している。
新しいBCVプリコンディショニング基準(Bertsekas-O'Connor-Vandenberghe)によって、効率的な分散化と局所的なステップサイズ調整を可能にする。
我々は堅牢な収束保証を確立する。
単に凸性の下では、提案手法はサブ線形速度に収束する。
和関数の強い凸性の下で、非滑らか成分が部分的に滑らかであると仮定すると、さらに線型収束が証明される。
数値実験は理論を裏付け、提案した適応段階戦略の有効性を強調する。
関連論文リスト
- Alternating Minimization Schemes for Computing Rate-Distortion-Perception Functions with $f$-Divergence Perception Constraints [9.788112471288057]
離散メモリレスソースに対するRDPF(Ralse-Distortion-Perception Function)の計算について検討した。
凸プログラミング問題に対する最適パラメトリック解を特徴付ける。
必要かつ十分な条件を導出することにより、両スキームがグローバルな最適解を保証できることが示される。
論文 参考訳(メタデータ) (2024-08-27T12:50:12Z) - Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - Achieving Near-Optimal Convergence for Distributed Minimax Optimization with Adaptive Stepsizes [22.022674600775993]
分散ミニマックス問題に直接適応的手法を適用することで,非収束性が得られることを示す。
追跡追跡プロトコルを用いた分散分散分散ミニマックス法であるD-AdaSTを提案する。
論文 参考訳(メタデータ) (2024-06-05T04:54:36Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Decentralized Inexact Proximal Gradient Method With Network-Independent
Stepsizes for Convex Composite Optimization [39.352542703876104]
本稿では,非方向および接続ネットワーク上での分散凸複合最適化について考察する。
CTA(Combine-Then-Adapt)に基づく新しい分散アルゴリズムは、非協調的なネットワーク非依存の定数ステップサイズの下で提案される。
論文 参考訳(メタデータ) (2023-02-07T03:50:38Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - FedSplit: An algorithmic framework for fast federated optimization [40.42352500741025]
本稿では,分散凸最小化を付加構造で解くアルゴリズムのクラスであるFedSplitを紹介する。
これらの手法は, 中間局所量の不正確な計算に対して, 確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2020-05-11T16:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。