論文の概要: CoCoL: A Communication Efficient Decentralized Collaborative Method for Multi-Robot Systems
- arxiv url: http://arxiv.org/abs/2508.20898v1
- Date: Thu, 28 Aug 2025 15:25:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.478877
- Title: CoCoL: A Communication Efficient Decentralized Collaborative Method for Multi-Robot Systems
- Title(参考訳): CoCoL:マルチロボットシステムのためのコミュニケーション効率の良い分散協調手法
- Authors: Jiaxi Huang, Yan Huang, Yixian Zhao, Wenchao Meng, Jinming Xu,
- Abstract要約: 異種局所データセットを持つマルチロボットシステムに適したコミュニケーション効率の良い分散協調学習手法を提案する。
CoCoLは、ロボットの目的関数間の類似性を捉えることにより、ニュートン型更新を近似して顕著な通信効率を達成する。
- 参考スコア(独自算出の注目度): 12.818331958107429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative learning enhances the performance and adaptability of multi-robot systems in complex tasks but faces significant challenges due to high communication overhead and data heterogeneity inherent in multi-robot tasks. To this end, we propose CoCoL, a Communication efficient decentralized Collaborative Learning method tailored for multi-robot systems with heterogeneous local datasets. Leveraging a mirror descent framework, CoCoL achieves remarkable communication efficiency with approximate Newton-type updates by capturing the similarity between objective functions of robots, and reduces computational costs through inexact sub-problem solutions. Furthermore, the integration of a gradient tracking scheme ensures its robustness against data heterogeneity. Experimental results on three representative multi robot collaborative learning tasks show the superiority of the proposed CoCoL in significantly reducing both the number of communication rounds and total bandwidth consumption while maintaining state-of-the-art accuracy. These benefits are particularly evident in challenging scenarios involving non-IID (non-independent and identically distributed) data distribution, streaming data, and time-varying network topologies.
- Abstract(参考訳): 協調学習は複雑なタスクにおけるマルチロボットシステムの性能と適応性を向上するが、高い通信オーバーヘッドとマルチロボットタスクに固有のデータ不均一性のために大きな課題に直面している。
この目的のために,異種局所データセットを持つマルチロボットシステムに適したコミュニケーション効率の良い分散協調学習手法であるCoCoLを提案する。
鏡面下降フレームワークを活用することで、CoCoLはロボットの目的関数間の類似性を捉えることにより、近似ニュートン型更新による顕著な通信効率を実現し、不正確なサブプロブレム解による計算コストを低減する。
さらに、勾配追跡方式の統合により、データの不均一性に対する堅牢性を保証する。
3つの代表的マルチロボット協調学習タスクの実験結果から,最先端の精度を維持しつつ,通信ラウンド数と総帯域使用量の両方を著しく削減する上で,提案したCoCoLの優位性を示した。
これらの利点は、非IID(非独立で同一に分散した)データ分散、ストリーミングデータ、時間変化のあるネットワークトポロジといった挑戦的なシナリオで特に顕著である。
関連論文リスト
- Learning for Cross-Layer Resource Allocation in MEC-Aided Cell-Free Networks [71.30914500714262]
移動エッジコンピューティング(MEC)を援用したセルフリーネットワーク上でのクロスレイヤリソース割り当ては、データレートを促進するために、送信およびコンピューティングリソースを十分に活用することができる。
深層学習の観点からMEC支援セルフリーネットワークのサブキャリア配置とビームフォーミング最適化について検討した。
論文 参考訳(メタデータ) (2024-12-21T10:18:55Z) - Faster Convergence on Heterogeneous Federated Edge Learning: An Adaptive Clustered Data Sharing Approach [27.86468387141422]
Federated Edge Learning (FEEL)は、6G Hyper-Connectivityのための分散機械学習パラダイムのパイオニアとして登場した。
現在のFEELアルゴリズムは、非独立かつ非独立に分散した(非IID)データと競合し、通信コストの上昇とモデルの精度が損なわれる。
我々はクラスタ化データ共有フレームワークを導入し、クラスタヘッドから信頼されたアソシエイトに部分的なデータを選択的に共有することで、データの均一性を緩和する。
実験により, このフレームワークは, 限られた通信環境において, 収束速度が速く, モデル精度が高い非IIDデータセット上で FEEL を促進することを示した。
論文 参考訳(メタデータ) (2024-06-14T07:22:39Z) - Serverless Federated AUPRC Optimization for Multi-Party Collaborative
Imbalanced Data Mining [119.89373423433804]
有効指標としてAUPRC(Area Under Precision-Recall)を導入した。
サーバーレスのマルチパーティ共同トレーニングは、サーバーノードのボトルネックを避けることで通信コストを削減できる。
本稿では,AUPRCを直接最適化する ServerLess biAsed sTochastic gradiEnt (SLATE) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-06T06:51:32Z) - Communication-Efficient Reinforcement Learning in Swarm Robotic Networks
for Maze Exploration [2.958532752589616]
コミュニケーションは、Swarmロボットの協調の成功の鍵である。
本稿では,Swarmロボットをコーディネートする通信効率の高い分散協調強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T16:56:00Z) - Personalized Decentralized Multi-Task Learning Over Dynamic
Communication Graphs [59.96266198512243]
本稿では,正と負の相関関係を持つタスクに対する分散・フェデレーション学習アルゴリズムを提案する。
本アルゴリズムでは,タスク間の相関関係を自動的に計算し,コミュニケーショングラフを動的に調整して相互に有益なタスクを接続し,互いに悪影響を及ぼす可能性のあるタスクを分離する。
合成ガウスデータセットと大規模セレブ属性(CelebA)データセットについて実験を行った。
論文 参考訳(メタデータ) (2022-12-21T18:58:24Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。