論文の概要: Decentralized Parameter-Free Online Learning
- arxiv url: http://arxiv.org/abs/2510.15644v1
- Date: Fri, 17 Oct 2025 13:34:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.634364
- Title: Decentralized Parameter-Free Online Learning
- Title(参考訳): 分散パラメータフリーオンライン学習
- Authors: Tomas Ortega, Hamid Jafarkhani,
- Abstract要約: 本稿では,パラメータフリーな分散オンライン学習アルゴリズムを提案する。
このアルゴリズムは分散センシング、分散最適化、協調MLアプリケーションに適用できる。
- 参考スコア(独自算出の注目度): 16.66547014107005
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose the first parameter-free decentralized online learning algorithms with network regret guarantees, which achieve sublinear regret without requiring hyperparameter tuning. This family of algorithms connects multi-agent coin-betting and decentralized online learning via gossip steps. To enable our decentralized analysis, we introduce a novel "betting function" formulation for coin-betting that simplifies the multi-agent regret analysis. Our analysis shows sublinear network regret bounds and is validated through experiments on synthetic and real datasets. This family of algorithms is applicable to distributed sensing, decentralized optimization, and collaborative ML applications.
- Abstract(参考訳): 本稿では,パラメータを含まない分散オンライン学習アルゴリズムを提案する。
このアルゴリズムのファミリは、ゴシップステップを通じて、マルチエージェントのコインベッティングと分散オンライン学習を結合する。
分散分析を可能にするために,コインベッティングのための新しい「賭け関数」の定式化を導入し,マルチエージェントの後悔分析を単純化する。
本分析は,合成および実データを用いた実験により,サブ線形ネットワークの残差を検証した。
このアルゴリズムは分散センシング、分散最適化、協調MLアプリケーションに適用できる。
関連論文リスト
- Differential Privacy Analysis of Decentralized Gossip Averaging under Varying Threat Models [6.790905400046194]
本稿では,ノードレベルの付加雑音を用いた分散化ゴシップ平均化アルゴリズムの新たなプライバシー解析法を提案する。
私たちの主な貢献は、これらのシナリオにおけるプライバシー漏洩を正確に特徴付ける新しい分析フレームワークです。
従来の手法に比べてDP境界が優れていることを示す数値計算結果を用いて,本分析を検証した。
論文 参考訳(メタデータ) (2025-05-26T13:31:43Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Online Optimization Perspective on First-Order and Zero-Order Decentralized Nonsmooth Nonconvex Stochastic Optimization [8.670873561640903]
分散環境下での非平滑な非平滑な目的に対する(delta,,ilon$)-定常点の有限時間解析について検討する。
$Oは分散非滑らかな最適化のための最初の有限時間保証である。
論文 参考訳(メタデータ) (2024-06-03T16:09:34Z) - Efficient Methods for Non-stationary Online Learning [63.268670895111654]
動的後悔と適応的後悔を最適化する効率的な方法を提案する。
提案アルゴリズムでは,各ラウンドで1つの勾配クエリと1つの関数評価しか必要としない。
また、さらに強力な測度、すなわち「内部的動的後悔」を研究し、ラウンド当たりの射影数を$O(log2 T)$から$$$$に減らした。
論文 参考訳(メタデータ) (2023-09-16T07:30:12Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Distributed Online Non-convex Optimization with Composite Regret [31.53784277195043]
本稿では,分散オンライン一般損失に対する新たなネットワーク後悔を伴う,新たな複合後悔を提案する。
我々の知る限り、オンラインの非線形学習における最初の後悔である。
論文 参考訳(メタデータ) (2022-09-21T04:16:33Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Decentralized Deep Learning using Momentum-Accelerated Consensus [15.333413663982874]
複数のエージェントが協調して分散データセットから学習する分散ディープラーニングの問題を考える。
本稿では,エージェントが固定された通信トポロジ上で対話する分散ディープラーニングアルゴリズムを提案し,解析する。
本アルゴリズムは,勾配に基づくプロトコルで用いられるヘビーボール加速度法に基づく。
論文 参考訳(メタデータ) (2020-10-21T17:39:52Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。