論文の概要: CatlNet: Learning Communication and Coordination Policies from CaTL+
Specifications
- arxiv url: http://arxiv.org/abs/2212.11792v1
- Date: Wed, 30 Nov 2022 21:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 03:20:09.999145
- Title: CatlNet: Learning Communication and Coordination Policies from CaTL+
Specifications
- Title(参考訳): CatlNet: CaTL+仕様からコミュニケーションとコーディネートポリシを学ぶ
- Authors: Wenliang Liu, Kevin Leahy, Zachary Serlin, Calin Belta
- Abstract要約: 異種マルチエージェントシステムのためのコミュニケーションと分散制御ポリシを同時に学習する学習ベースフレームワークを提案する。
どちらのポリシーもトレーニングされ、実装され、CataNetと呼ばれる新しいニューラルネットワークモデルを使用してデプロイされる。
CatlNetのトレーニングをガイドし、トレーニング効率と全体的なパフォーマンスを改善するために、計画修復アルゴリズムも導入されている。
- 参考スコア(独自算出の注目度): 0.20646127669654826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a learning-based framework to simultaneously learn
the communication and distributed control policies for a heterogeneous
multi-agent system (MAS) under complex mission requirements from Capability
Temporal Logic plus (CaTL+) specifications. Both policies are trained,
implemented, and deployed using a novel neural network model called CatlNet.
Taking advantage of the robustness measure of CaTL+, we train CatlNet centrally
to maximize it where network parameters are shared among all agents, allowing
CatlNet to scale to large teams easily. CatlNet can then be deployed
distributedly. A plan repair algorithm is also introduced to guide CatlNet's
training and improve both training efficiency and the overall performance of
CatlNet. The CatlNet approach is tested in simulation and results show that,
after training, CatlNet can steer the decentralized MAS system online to
satisfy a CaTL+ specification with a high success rate.
- Abstract(参考訳): 本稿では,多元多エージェントシステム(MAS)の通信と分散制御ポリシを,能力時相論理+CaTL+仕様から複雑なミッション条件下で同時に学習する学習ベースのフレームワークを提案する。
どちらのポリシーもトレーニングされ、実装され、CataNetと呼ばれる新しいニューラルネットワークモデルを使用してデプロイされる。
CaTL+の堅牢性を活用して、ネットワークパラメータがすべてのエージェント間で共有される場所を最大化するために、CataNetを集中的にトレーニングします。
CatlNetは分散してデプロイできる。
CatlNetのトレーニングをガイドし、トレーニング効率と全体的なパフォーマンスを改善するために、計画修復アルゴリズムも導入された。
CatlNetのアプローチはシミュレーションでテストされ、その結果、トレーニング後、CalNetは分散MASシステムをオンラインで操り、CaTL+仕様を高い成功率で満たせることを示した。
関連論文リスト
- Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - One is More: Diverse Perspectives within a Single Network for Efficient
DRL [43.249133438809125]
OMNetは、単一のネットワーク内で複数のワークを活用する新しい学習パラダイムであり、多様なアウトプットを効率的に提供する。
OMNetは、最小限の追加オーバーヘッドで、様々な深層強化学習アルゴリズムに容易に適用できる。
論文 参考訳(メタデータ) (2023-10-21T13:37:13Z) - ProtoCaps: A Fast and Non-Iterative Capsule Network Routing Method [6.028175460199198]
本稿では,カプセルネットワークのための新しい非定型ルーティング機構を提案する。
私たちは共有のCapsuleサブスペースを利用し、各下位のCapsuleを各上位のCapsuleに投影する必要性を否定します。
本研究は,カプセルネットワークの運用効率と性能を向上させるための提案手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-19T12:39:40Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - DSPNet: Towards Slimmable Pretrained Networks based on Discriminative
Self-supervised Learning [43.45674911425684]
我々はDSPNet(Driminative-SSL-based Slimmable Pretrained Networks)を提案する。
DSPNetは一度にトレーニングでき、その後、さまざまなサイズの複数のサブネットワークにスリム化される。
個別に事前学習したネットワークに対して、ImageNet上でのDSPNetの同等または改善性能を示す。
論文 参考訳(メタデータ) (2022-07-13T09:32:54Z) - A Deep Value-network Based Approach for Multi-Driver Order Dispatching [55.36656442934531]
そこで本研究では,注文発送のための深層強化学習に基づくソリューションを提案する。
DiDiの配車プラットフォーム上で大規模なオンラインA/Bテストを実施している。
その結果,CVNetは近年提案されているディスパッチ手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-06-08T16:27:04Z) - Learnable Expansion-and-Compression Network for Few-shot
Class-Incremental Learning [87.94561000910707]
破滅的忘れとモデルオーバーフィッティングの問題を解決するための学習可能な拡張・圧縮ネットワーク(LEC-Net)を提案する。
LEC-Netは機能の表現能力を拡大し、モデル正規化の観点から古いネットワークの特徴漂流を緩和します。
CUB/CIFAR-100データセットの実験では、LEC-Netがベースラインを57%改善し、最先端の56%を上回ります。
論文 参考訳(メタデータ) (2021-04-06T04:34:21Z) - SALA: Soft Assignment Local Aggregation for Parameter Efficient 3D
Semantic Segmentation [65.96170587706148]
3dポイントクラウドセマンティクスセグメンテーションのためのパラメータ効率の良いネットワークを生成するポイントローカルアグリゲーション関数の設計に着目する。
グリッド型アグリゲーション関数における学習可能な隣り合わせソフトアロケーションの利用について検討する。
論文 参考訳(メタデータ) (2020-12-29T20:16:37Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - CatNet: Class Incremental 3D ConvNets for Lifelong Egocentric Gesture
Recognition [24.706843543488763]
エゴセントリックなジェスチャーは、人間がVR/ARヘルメットやメガネのようなウェアラブルデバイスと対話するための、最も自然なコミュニケーション形態である。
従来のディープラーニングメソッドでは、すべての前のクラスサンプルをシステムに格納し、スクラッチからモデルを再トレーニングする必要があります。
本研究では、生涯にわたる3D畳み込みフレームワーク-c(C)la(a)s increment(t)al net(Net)work(CatNet)を実証する。
本稿では,RGBと奥行きモードを2つの異なるネットワークをトレーニングするための2ストリームのCatNetを提案する。
論文 参考訳(メタデータ) (2020-04-20T11:36:02Z) - Energy-efficient and Robust Cumulative Training with Net2Net
Transformation [2.4283778735260686]
本研究では,精度の低下を招くことなく,計算効率のトレーニングを実現する累積学習戦略を提案する。
まず、元のデータセットの小さなサブセット上で小さなネットワークをトレーニングし、その後徐々にネットワークを拡張します。
実験により、スクラッチからのトレーニングと比較すると、累積的なトレーニングは計算複雑性を2倍に減らすことが示された。
論文 参考訳(メタデータ) (2020-03-02T21:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。