論文の概要: Learning Connectivity-Maximizing Network Configurations
- arxiv url: http://arxiv.org/abs/2112.07663v1
- Date: Tue, 14 Dec 2021 18:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 16:46:17.217658
- Title: Learning Connectivity-Maximizing Network Configurations
- Title(参考訳): 接続性最大化ネットワーク構成の学習
- Authors: Daniel Mox, Vijay Kumar, Alejandro Ribeiro
- Abstract要約: 本稿では、専門家からコミュニケーションエージェントを配置することを学ぶ畳み込みニューラルネットワーク(CNN)を用いた教師あり学習手法を提案する。
我々は,標準ライントポロジやリングトポロジ,ランダムに生成された105万件のテストケース,トレーニング中に見えない大規模なチームについて,CNNのパフォーマンスを実証した。
トレーニング後,本システムは10~20名のエージェントの最適化手法よりも2桁高速な接続構成を生成する。
- 参考スコア(独自算出の注目度): 123.01665966032014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we propose a data-driven approach to optimizing the algebraic
connectivity of a team of robots. While a considerable amount of research has
been devoted to this problem, we lack a method that scales in a manner suitable
for online applications for more than a handful of agents. To that end, we
propose a supervised learning approach with a convolutional neural network
(CNN) that learns to place communication agents from an expert that uses an
optimization-based strategy. We demonstrate the performance of our CNN on
canonical line and ring topologies, 105k randomly generated test cases, and
larger teams not seen during training. We also show how our system can be
applied to dynamic robot teams through a Unity-based simulation. After
training, our system produces connected configurations 2 orders of magnitude
faster than the optimization-based scheme for teams of 10-20 agents.
- Abstract(参考訳): 本研究では,ロボットチームの代数的接続を最適化するためのデータ駆動アプローチを提案する。
この問題に多くの研究が費やされてきたが、私たちはほんの一握り以上のエージェントに対して、オンラインアプリケーションに適した方法でスケールする手法を欠いている。
そこで本研究では,最適化に基づく戦略を用いた専門家のコミュニケーションエージェント配置を学習する畳み込みニューラルネットワーク(cnn)を用いた教師付き学習手法を提案する。
我々は、標準線およびリングトポロジーにおけるcnnのパフォーマンス、ランダムに生成された105kのテストケース、トレーニング中に見られない大きなチームについて実演します。
また,このシステムを動的ロボットチームに適用する方法を,ユニティベースシミュレーションによって示す。
トレーニング後,本システムは10~20名のエージェントの最適化手法よりも2桁高速な接続構成を生成する。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - Hybrid Learning for Orchestrating Deep Learning Inference in Multi-user
Edge-cloud Networks [3.7630209350186807]
ディープラーニングのためのコラボレーション型のエッジクラウドコンピューティングは、さまざまなパフォーマンスと効率を提供する。
ディープラーニング推論オーケストレーション戦略では、最適なオーケストレーションポリシを見つけるために強化学習を採用している。
我々は、最先端のRLベースの推論オーケストレーションを実験的に比較することで、HL戦略の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-21T21:50:50Z) - Coordinated Reinforcement Learning for Optimizing Mobile Networks [6.924083445159127]
数百の協調エージェントを含む複雑なアプリケーションにおいて、協調グラフと強化学習の使い方を示す。
協調強化学習が他の手法より優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-09-30T14:46:18Z) - Graph Neural Networks for Decentralized Multi-Robot Submodular Action
Selection [101.38634057635373]
ロボットがチームサブモジュールの目的を最大化するために共同で行動を選択する必要があるアプリケーションに焦点を当てる。
分散通信によるサブモジュール化に向けた汎用学習アーキテクチャを提案する。
大規模ロボットネットワークによるアクティブターゲットカバレッジのシナリオにおいて、GNNベースの学習アプローチのパフォーマンスを実証します。
論文 参考訳(メタデータ) (2021-05-18T15:32:07Z) - Optimizing Neural Networks via Koopman Operator Theory [6.09170287691728]
クープマン作用素理論は近年、ニューラルネットワーク理論と密接に関連していることが示されている。
この作業では、この接続を利用するための第一歩を踏み出します。
クープマン作用素理論法は、非自明な訓練時間の範囲で、供給重みの重みと偏りの予測を可能にする。
論文 参考訳(メタデータ) (2020-06-03T16:23:07Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。