論文の概要: COHORT: Hybrid RL for Collaborative Large DNN Inference on Multi-Robot Systems Under Real-Time Constraints
- arxiv url: http://arxiv.org/abs/2603.10436v1
- Date: Wed, 11 Mar 2026 05:38:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.663592
- Title: COHORT: Hybrid RL for Collaborative Large DNN Inference on Multi-Robot Systems Under Real-Time Constraints
- Title(参考訳): COHORT: リアルタイム制約下でのマルチロボットシステム上での協調的大DNN推論のためのハイブリッドRL
- Authors: Mohammad Saeid Anwar, Anuradha Ravi, Indrajeet Ghosh, Gaurav Shinde, Carl Busart, Nirmalya Roy,
- Abstract要約: 大規模ディープニューラルネットワーク(DNN)は、計算的に要求され、フィールドロボットのようなリソース制約のあるエッジプラットフォームにデプロイすることを困難にしている。
ロボットオペレーティングシステム(ROS)上に構築されたマルチロボットシステムのための協調的DNN推論とタスク実行フレームワークCOHORTを提案する。
実験の結果、COHORTはバッテリ消費を15.4%削減し、GPU使用率を51.67%向上し、フレームレートと期限の制約を2.55倍に満たした。
- 参考スコア(独自算出の注目度): 0.769672852567215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large deep neural networks (DNNs), especially transformer-based and multimodal architectures, are computationally demanding and challenging to deploy on resource-constrained edge platforms like field robots. These challenges intensify in mission-critical scenarios (e.g., disaster response), where robots must collaborate under tight constraints on bandwidth, latency, and battery life, often without infrastructure or server support. To address these limitations, we present COHORT, a collaborative DNN inference and task-execution framework for multi-robot systems built on the Robotic Operating System (ROS). COHORT employs a hybrid offline-online reinforcement learning (RL) strategy to dynamically schedule and distribute DNN module execution across robots. Our key contributions are threefold: (a) Offline RL policy learning combined with Advantage-Weighted Regression (AWR), trained on auction-based task allocation data from heterogeneous DNN workloads across distributed robots, (b) Online policy adaptation via Multi-Agent PPO (MAPPO), initialized from the offline policy and fine-tuned in real time, and (c) comprehensive evaluation of COHORT on vision-language model (VLM) inference tasks such as CLIP and SAM, analyzing scalability with increasing robot/workload and robustness under . We benchmark COHORT against genetic algorithms and multiple RL baselines. Experimental results demonstrate that COHORT reduces battery consumption by 15.4% and increases GPU utilization by 51.67%, while satisfying frame-rate and deadline constraints 2.55 times of the time.
- Abstract(参考訳): 大規模ディープニューラルネットワーク(DNN)、特にトランスフォーマーベースおよびマルチモーダルアーキテクチャは、計算的に要求され、フィールドロボットのようなリソース制約のあるエッジプラットフォームにデプロイすることを困難にしている。
これらの課題はミッションクリティカルなシナリオ(災害対応など)を強化し、ロボットは、しばしばインフラストラクチャやサーバのサポートなしで、帯域幅、レイテンシ、バッテリ寿命の厳しい制約の下で協力する必要がある。
ロボットオペレーティングシステム(ROS)上に構築されたマルチロボットシステムのための協調的DNN推論およびタスク実行フレームワークであるCOHORTを提案する。
COHORTは、ロボット間でDNNモジュールの実行を動的にスケジュールし、分散するために、ハイブリッドオフラインオンライン強化学習(RL)戦略を採用している。
私たちの重要な貢献は3つあります。
(a)オフラインRLポリシー学習とAdvantage-Weighted Regression(AWR)を組み合わせることで、分散ロボット間の異種DNNワークロードからのオークションベースのタスク割り当てデータをトレーニングする。
ロ マルチエージェントPPO(MAPPO)によるオンライン政策適応(オフライン方針から初期化してリアルタイムに微調整)
(c)CLIPやSAMのような視覚言語モデル(VLM)推論タスクにおけるCOHORTの包括的評価、ロボット/作業負荷の増加によるスケーラビリティの分析、.NETでの堅牢性。
遺伝的アルゴリズムと複数のRLベースラインに対してCOHORTをベンチマークする。
実験の結果、COHORTはバッテリ消費を15.4%削減し、GPU使用率を51.67%向上し、フレームレートと期限の制約を2.55倍に満たした。
関連論文リスト
- Population-Coded Spiking Neural Networks for High-Dimensional Robotic Control [0.9916299448089259]
本稿では,集団符号化スパイキングニューラルネットワーク(SNN)と深層強化学習(DRL)を組み合わせた新しい枠組みを提案する。
我々は,従来のニューラルネットワーク(ANN)と比較して最大96.10%の省エネを実現し,比較制御性能を維持した。
これらの結果は、資源制約されたアプリケーションにおけるエネルギー効率、高性能なロボット制御のための有望なソリューションとして、人口コード付きSNNを位置づけている。
論文 参考訳(メタデータ) (2025-10-12T09:27:25Z) - MAGNNET: Multi-Agent Graph Neural Network-based Efficient Task Allocation for Autonomous Vehicles with Deep Reinforcement Learning [2.5022287664959446]
本稿では,グラフニューラルネットワーク(GNN)を一元的トレーニングと分散実行(CTDE)パラダイムに統合する新しいフレームワークを提案する。
本手法により,無人航空機 (UAV) と無人地上車両 (UGV) は, 中央調整を必要とせず, 効率よくタスクを割り当てることができる。
論文 参考訳(メタデータ) (2025-02-04T13:29:56Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement Learning [82.46975428739329]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - RAPID-RL: A Reconfigurable Architecture with Preemptive-Exits for
Efficient Deep-Reinforcement Learning [7.990007201671364]
効率的な深部RL(RAPID-RL)のためのプリエンプティブ出口を持つ再構成可能なアーキテクチャを提案する。
RAPID-RLは入力の難易度に基づいてプリエンプティブ層の条件付き活性化を可能にする。
RAPID-RL は Atari (Drone Navigation) タスクにおいて 0.88x (0.91x) 以上の性能を維持しながら, 演算数 0.34x (0.25x) を発生させることを示す。
論文 参考訳(メタデータ) (2021-09-16T21:30:40Z) - Deep Reinforcement Learning with Population-Coded Spiking Neural Network
for Continuous Control [0.0]
深層強化学習(DRL)を用いた深層批評家ネットワークと連携して訓練された集団符号化スパイキングアクターネットワーク(PopSAN)を提案する。
我々は、トレーニング済みのPopSANをIntelのLoihiニューロモルフィックチップにデプロイし、本手法をメインストリームのDRLアルゴリズムと比較し、連続的な制御を行った。
本研究はニューロモルフィックコントローラの効率性をサポートし,エネルギー効率とロバスト性の両方が重要である場合,我々のハイブリッドRLをディープラーニングの代替として提案する。
論文 参考訳(メタデータ) (2020-10-19T16:20:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。