論文の概要: Learning and Reasoning for Robot Dialog and Navigation Tasks
- arxiv url: http://arxiv.org/abs/2005.09833v2
- Date: Mon, 31 Aug 2020 02:07:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:30:23.790317
- Title: Learning and Reasoning for Robot Dialog and Navigation Tasks
- Title(参考訳): ロボットダイアログとナビゲーションタスクの学習と推論
- Authors: Keting Lu, Shiqi Zhang, Peter Stone, Xiaoping Chen
- Abstract要約: 我々は,強化学習と確率論的推論手法の相補的長所を考察しながら,ロボットタスク完了のためのアルゴリズムを開発した。
ロボットは試行錯誤の経験から学習し、宣言的な知識ベースを強化する。
我々は,ダイアログとナビゲーションタスクを実行する移動ロボットを用いて,開発したアルゴリズムを実装し,評価した。
- 参考スコア(独自算出の注目度): 44.364322669414776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning and probabilistic reasoning algorithms aim at learning
from interaction experiences and reasoning with probabilistic contextual
knowledge respectively. In this research, we develop algorithms for robot task
completions, while looking into the complementary strengths of reinforcement
learning and probabilistic reasoning techniques. The robots learn from
trial-and-error experiences to augment their declarative knowledge base, and
the augmented knowledge can be used for speeding up the learning process in
potentially different tasks. We have implemented and evaluated the developed
algorithms using mobile robots conducting dialog and navigation tasks. From the
results, we see that our robot's performance can be improved by both reasoning
with human knowledge and learning from task-completion experience. More
interestingly, the robot was able to learn from navigation tasks to improve its
dialog strategies.
- Abstract(参考訳): 強化学習と確率的推論アルゴリズムは、それぞれ確率的文脈知識を持つ相互作用経験と推論から学習することを目的としている。
本研究では,強化学習と確率的推論手法の補完的強みを考察しながら,ロボットタスク完了のためのアルゴリズムを開発した。
ロボットは試行錯誤の経験から学び、彼らの宣言的な知識基盤を強化し、拡張された知識は潜在的に異なるタスクで学習プロセスをスピードアップするために使用できる。
対話やナビゲーションタスクを行う移動ロボットを用いて,開発したアルゴリズムを実装し,評価した。
その結果,人間知識による推論とタスク補完経験からの学習の両方により,ロボットの性能が向上することがわかった。
さらに興味深いことに、ロボットはナビゲーションタスクから学び、ダイアログ戦略を改善することができた。
関連論文リスト
- Growing from Exploration: A self-exploring framework for robots based on
foundation models [13.250831101705694]
我々は、ロボットが人間の介入なしに自律的に探索し学習することを可能にするGExpというフレームワークを提案する。
幼児が世界と対話する方法に触発されて、GExpはロボットに、一連の自己生成タスクで環境を理解し、探索するように促す。
論文 参考訳(メタデータ) (2024-01-24T14:04:08Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Physics-Guided Hierarchical Reward Mechanism for Learning-Based Robotic
Grasping [10.424363966870775]
我々は,学習効率と学習に基づく自律的把握の一般化性を向上させるために,階層的リワード機構を備えた物理誘導型深層強化学習を開発した。
本手法は3本指MICOロボットアームを用いたロボット把握作業において有効である。
論文 参考訳(メタデータ) (2022-05-26T18:01:56Z) - Learning robot motor skills with mixed reality [0.8121462458089141]
最近MR(Mixed Reality)は、エンドユーザがロボットを教えるための直感的なインターフェースとして大きな成功を収めた。
エンドユーザーがロボットにa)動作デモ、b)タスク制約、c)計画表現、d)オブジェクト情報を教える学習フレームワークを提案する。
我々は、この世界の知識を伝達することはMRインタフェースで直感的であり、サンプリング効率の良いモータースキル学習フレームワークによってロボットが複雑なタスクを効果的に解くことができると仮定する。
論文 参考訳(メタデータ) (2022-03-21T20:25:40Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Discovering Generalizable Skills via Automated Generation of Diverse
Tasks [82.16392072211337]
本稿では,多種多様なタスクの自動生成による一般化可能なスキルの発見手法を提案する。
教師なしスキル発見の先行研究とは対照的に,本手法では各スキルをトレーニング可能なタスクジェネレータが生成するユニークなタスクとペアリングする。
生成したタスクにおけるロボットの動作に定義されたタスク判別器を共同で訓練し、多様性目標の低いエビデンスを推定する。
学習スキルは階層的な強化学習アルゴリズムで構成され、目に見えない目標タスクを解決する。
論文 参考訳(メタデータ) (2021-06-26T03:41:51Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z) - Deep Reinforcement Learning with Interactive Feedback in a Human-Robot
Environment [1.2998475032187096]
対話型フィードバックを用いた深層強化学習手法を提案し,人間ロボットのシナリオで家庭内課題を学習する。
シミュレーションロボットアームを用いた3つの学習手法を比較し,異なる物体を整理する作業について検討した。
その結果、学習エージェントは、エージェントIDeepRLまたはヒューマンIDeepRLを使用して、与えられたタスクを早期に完了し、自律的なDeepRLアプローチと比較して誤りが少ないことがわかった。
論文 参考訳(メタデータ) (2020-07-07T11:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。