論文の概要: VGAI: End-to-End Learning of Vision-Based Decentralized Controllers for
Robot Swarms
- arxiv url: http://arxiv.org/abs/2002.02308v2
- Date: Thu, 10 Dec 2020 14:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:24:56.245215
- Title: VGAI: End-to-End Learning of Vision-Based Decentralized Controllers for
Robot Swarms
- Title(参考訳): VGAI:ロボット群のためのビジョンベース分散型コントローラのエンドツーエンド学習
- Authors: Ting-Kuei Hu, Fernando Gama, Tianlong Chen, Zhangyang Wang, Alejandro
Ribeiro, Brian M. Sadler
- Abstract要約: ビジュアル入力のみに基づいて分散制御系を学習することを提案する。
初めて、コミュニケーションと視覚知覚という2つの重要な要素の学習を統合する。
提案する学習フレームワークは,各ロボットが視覚入力からメッセージを取り出すための畳み込みニューラルネットワーク(CNN)と,これらのメッセージの送信,受信,処理を行うためのSwarm全体のグラフニューラルネットワーク(GNN)を組み合わせる。
- 参考スコア(独自算出の注目度): 237.25930757584047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized coordination of a robot swarm requires addressing the tension
between local perceptions and actions, and the accomplishment of a global
objective. In this work, we propose to learn decentralized controllers based on
solely raw visual inputs. For the first time, that integrates the learning of
two key components: communication and visual perception, in one end-to-end
framework. More specifically, we consider that each robot has access to a
visual perception of the immediate surroundings, and communication capabilities
to transmit and receive messages from other neighboring robots. Our proposed
learning framework combines a convolutional neural network (CNN) for each robot
to extract messages from the visual inputs, and a graph neural network (GNN)
over the entire swarm to transmit, receive and process these messages in order
to decide on actions. The use of a GNN and locally-run CNNs results naturally
in a decentralized controller. We jointly train the CNNs and the GNN so that
each robot learns to extract messages from the images that are adequate for the
team as a whole. Our experiments demonstrate the proposed architecture in the
problem of drone flocking and show its promising performance and scalability,
e.g., achieving successful decentralized flocking for large-sized swarms
consisting of up to 75 drones.
- Abstract(参考訳): ロボット集団の分散協調は、局所的な知覚と行動の緊張とグローバルな目標の達成に対処しなければならない。
本研究では,ビジュアル入力のみに基づいて分散制御系を学習することを提案する。
初めて、それは2つの重要なコンポーネント、コミュニケーションと視覚知覚の学習を1つのエンドツーエンドフレームワークに統合する。
より具体的には、各ロボットは、周辺環境の視覚的認識と、他の隣接するロボットからのメッセージの送信と受信を行う通信能力にアクセスできると考えている。
提案する学習フレームワークは,各ロボットが視覚入力からメッセージを抽出するための畳み込みニューラルネットワーク(CNN)と,Swarm全体のグラフニューラルネットワーク(GNN)を組み合わせて,これらのメッセージを送信,受信,処理し,アクションを決定する。
GNNとローカルに実行されるCNNの使用は、自然に分散化されたコントローラで実現される。
私たちは、cnnとgnnを共同で訓練し、各ロボットがチーム全体に適した画像からメッセージを抽出するようにします。
私たちの実験では,提案するアーキテクチャをドローン群集問題において実証し,75機のドローンからなる大規模群集に対して,その有望な性能と拡張性を示す。
関連論文リスト
- Generalizability of Graph Neural Networks for Decentralized Unlabeled Motion Planning [72.86540018081531]
ラベルなしの動作計画では、衝突回避を確保しながら、ロボットのセットを目標の場所に割り当てる。
この問題は、探査、監視、輸送などの応用において、マルチロボットシステムにとって不可欠なビルディングブロックを形成している。
この問題に対処するために、各ロボットは、その400ドルのアネレストロボットと$k$アネレストターゲットの位置のみを知っている分散環境で対処する。
論文 参考訳(メタデータ) (2024-09-29T23:57:25Z) - LPAC: Learnable Perception-Action-Communication Loops with Applications
to Coverage Control [80.86089324742024]
本稿では,その問題に対する学習可能なパーセプション・アクション・コミュニケーション(LPAC)アーキテクチャを提案する。
CNNは局所認識を処理する。グラフニューラルネットワーク(GNN)はロボットのコミュニケーションを促進する。
評価の結果,LPACモデルは標準分散型および集中型カバレッジ制御アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-01-10T00:08:00Z) - Asynchronous Perception-Action-Communication with Graph Neural Networks [93.58250297774728]
グローバルな目的を達成するため,大規模なロボット群における協調作業は,大規模環境における課題である。
ロボットはパーセプション・アクション・コミュニケーションループを実行し、ローカル環境を認識し、他のロボットと通信し、リアルタイムで行動を起こす必要がある。
近年では、フロッキングやカバレッジ制御などのアプリケーションでグラフニューラルネットワーク(GNN)を使用してこの問題に対処している。
本稿では、分散化されたGNNを用いてナビゲーション動作を計算し、通信のためのメッセージを生成するロボット群における非同期PACフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T21:20:50Z) - Fully neuromorphic vision and control for autonomous drone flight [5.358212984063069]
イベントベースのビジョンとスパイクニューラルネットワークは、同様の特徴を示すことを約束する。
本稿では,ドローン飛行を制御するための完全学習型ニューロモルフィックパイプラインを提案する。
結果は,1回の飛行でより小さなネットワークを実現するためのニューロモルフィックセンシングと処理の可能性を示している。
論文 参考訳(メタデータ) (2023-03-15T17:19:45Z) - Graph Neural Networks for Relational Inductive Bias in Vision-based Deep
Reinforcement Learning of Robot Control [0.0]
この研究は、リレーショナル帰納バイアスと視覚フィードバックを組み合わせたニューラルネットワークアーキテクチャを導入し、効率的な位置制御ポリシーを学習する。
我々は、画像符号化ネットワークによって生成された視覚シーンの低次元記述を用いて、ロボットの内部状態をモデル化するグラフ表現を導出する。
視覚的に現実的な3D環境下での6-DoFロボットアームのサンプル効率を向上させるためのモデルの有効性を示す。
論文 参考訳(メタデータ) (2022-03-11T15:11:54Z) - Scalable Perception-Action-Communication Loops with Convolutional and
Graph Neural Networks [208.15591625749272]
視覚に基づくグラフアグリゲーション・アンド・推論(VGAI)を用いた知覚-行動-コミュニケーションループの設計を提案する。
我々のフレームワークは、畳み込みとグラフニューラルネットワーク(CNN/GNN)のカスケードによって実装され、エージェントレベルの視覚知覚と特徴学習に対処する。
我々は、VGAIが他の分散コントローラに匹敵する性能を得ることを示した。
論文 参考訳(メタデータ) (2021-06-24T23:57:21Z) - Graph Neural Networks for Decentralized Multi-Robot Submodular Action
Selection [101.38634057635373]
ロボットがチームサブモジュールの目的を最大化するために共同で行動を選択する必要があるアプリケーションに焦点を当てる。
分散通信によるサブモジュール化に向けた汎用学習アーキテクチャを提案する。
大規模ロボットネットワークによるアクティブターゲットカバレッジのシナリオにおいて、GNNベースの学習アプローチのパフォーマンスを実証します。
論文 参考訳(メタデータ) (2021-05-18T15:32:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。