論文の概要: Multi-Robot Formation Control Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2001.04527v1
- Date: Mon, 13 Jan 2020 20:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 00:01:37.546836
- Title: Multi-Robot Formation Control Using Reinforcement Learning
- Title(参考訳): 強化学習を用いたマルチロボット形成制御
- Authors: Abhay Rawat, Kamalakar Karlapalem
- Abstract要約: 本稿では,ロボット群を構成体に移動させる機械学習手法を提案する。
我々の目的は、多数のエージェント間で望ましい構成を維持するための制御ポリシーを設計することである。
- 参考スコア(独自算出の注目度): 1.0152838128195465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a machine learning approach to move a group of
robots in a formation. We model the problem as a multi-agent reinforcement
learning problem. Our aim is to design a control policy for maintaining a
desired formation among a number of agents (robots) while moving towards a
desired goal. This is achieved by training our agents to track two agents of
the group and maintain the formation with respect to those agents. We consider
all agents to be homogeneous and model them as unicycle [1]. In contrast to the
leader-follower approach, where each agent has an independent goal, our
approach aims to train the agents to be cooperative and work towards the common
goal. Our motivation to use this method is to make a fully decentralized
multi-agent formation system and scalable for a number of agents.
- Abstract(参考訳): 本稿では,ロボット群を集団的に移動させる機械学習手法を提案する。
この問題をマルチエージェント強化学習問題としてモデル化する。
本研究の目的は,多数のエージェント(ロボット)間の所望の形成を維持するための制御方針を,所望の目標に向かって進めることにある。
これは、我々のエージェントがグループの2つのエージェントを追跡し、それらのエージェントに関する構成を維持するように訓練することで達成される。
すべてのエージェントは均質であり、それらを一サイクル [1] としてモデル化する。
それぞれのエージェントが独立した目標を持つリーダフォローアプローチとは対照的に,当社のアプローチは,エージェントが協力し,共通の目標に向かって働くようにトレーニングすることを目的としています。
この手法を使う動機は、完全に分散化されたマルチエージェント生成システムを作り、多数のエージェントにスケーラブルにすることだ。
関連論文リスト
- MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
拡散モデル(DM)は、最近オフライン強化学習を含む様々なシナリオで大きな成功を収めた。
この問題に対処する新しい生成型マルチエージェント学習フレームワークであるMADiffを提案する。
本実験は,マルチエージェント学習タスクにおけるベースラインアルゴリズムと比較して,MADiffの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - Exploring the Benefits of Teams in Multiagent Learning [5.334505575267924]
組織心理学(OP)に触発された強化学習(RL)エージェントのためのマルチエージェントチームの新しいモデルを提案する。
我々は、協力しないインセンティブにもかかわらず、チームに分かれたエージェントが協調的な社会政策を開発することを発見した。
エージェントはチームの創発的な役割をコーディネートし、学習し、すべてのエージェントの利害関係が整った時よりも高い報酬を得ることができる。
論文 参考訳(メタデータ) (2022-05-04T21:14:03Z) - It Takes Four to Tango: Multiagent Selfplay for Automatic Curriculum
Generation [107.10235120286352]
汎用強化学習エージェントを効率的に訓練するには、ゴールカリキュラムの自動生成が必要である。
自動ゴール生成フレームワークCuSPを提案する。
本手法は,様々な制御タスクに対して,効率的な目標のカリキュラムを生成するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-22T01:23:23Z) - Relative Distributed Formation and Obstacle Avoidance with Multi-agent
Reinforcement Learning [20.401609420707867]
マルチエージェント強化学習(MARL)に基づく分散生成・障害物回避手法を提案する。
提案手法は, 障害物回避における生成誤差, 生成収束率, オンパー成功率に関して, ベースラインと比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-11-14T13:02:45Z) - Two-stage training algorithm for AI robot soccer [2.0757564643017092]
異種エージェントの学習性能を向上させるために,二段階多種集中訓練を提案する。
提案手法は,5対5のAIロボットサッカーを用いて検証を行う。
論文 参考訳(メタデータ) (2021-04-13T04:24:13Z) - Human-Inspired Multi-Agent Navigation using Knowledge Distillation [4.659427498118277]
本稿では,エージェントエージェントインタラクションのためのヒューマンライクな一般的な衝突回避ポリシーを学習するためのフレームワークを提案する。
提案手法では, 知識蒸留と強化学習を用いて報酬関数を形作る。
提案手法により訓練されたエージェントは,衝突回避や目標指向の操舵作業において,人間のような軌道を取ることができることを示す。
論文 参考訳(メタデータ) (2021-03-18T03:24:38Z) - Learning Multi-Arm Manipulation Through Collaborative Teleoperation [63.35924708783826]
模倣学習(il)はロボットに操作タスクを実行するための強力なパラダイムである。
多くの現実世界のタスクは、重い物体を持ち上げる、デスクを組み立てるなど、複数のアームを必要とする。
複数のリモートユーザが同時にロボットアームを遠隔操作できるマルチユーザデータ収集プラットフォームであるMulti-Arm RoboTurk(MART)を紹介した。
論文 参考訳(メタデータ) (2020-12-12T05:43:43Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。