論文の概要: Learning and Reasoning for Robot Dialog and Navigation Tasks
- arxiv url: http://arxiv.org/abs/2005.09833v2
- Date: Mon, 31 Aug 2020 02:07:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:30:23.790317
- Title: Learning and Reasoning for Robot Dialog and Navigation Tasks
- Title(参考訳): ロボットダイアログとナビゲーションタスクの学習と推論
- Authors: Keting Lu, Shiqi Zhang, Peter Stone, Xiaoping Chen
- Abstract要約: 我々は,強化学習と確率論的推論手法の相補的長所を考察しながら,ロボットタスク完了のためのアルゴリズムを開発した。
ロボットは試行錯誤の経験から学習し、宣言的な知識ベースを強化する。
我々は,ダイアログとナビゲーションタスクを実行する移動ロボットを用いて,開発したアルゴリズムを実装し,評価した。
- 参考スコア(独自算出の注目度): 44.364322669414776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning and probabilistic reasoning algorithms aim at learning
from interaction experiences and reasoning with probabilistic contextual
knowledge respectively. In this research, we develop algorithms for robot task
completions, while looking into the complementary strengths of reinforcement
learning and probabilistic reasoning techniques. The robots learn from
trial-and-error experiences to augment their declarative knowledge base, and
the augmented knowledge can be used for speeding up the learning process in
potentially different tasks. We have implemented and evaluated the developed
algorithms using mobile robots conducting dialog and navigation tasks. From the
results, we see that our robot's performance can be improved by both reasoning
with human knowledge and learning from task-completion experience. More
interestingly, the robot was able to learn from navigation tasks to improve its
dialog strategies.
- Abstract(参考訳): 強化学習と確率的推論アルゴリズムは、それぞれ確率的文脈知識を持つ相互作用経験と推論から学習することを目的としている。
本研究では,強化学習と確率的推論手法の補完的強みを考察しながら,ロボットタスク完了のためのアルゴリズムを開発した。
ロボットは試行錯誤の経験から学び、彼らの宣言的な知識基盤を強化し、拡張された知識は潜在的に異なるタスクで学習プロセスをスピードアップするために使用できる。
対話やナビゲーションタスクを行う移動ロボットを用いて,開発したアルゴリズムを実装し,評価した。
その結果,人間知識による推論とタスク補完経験からの学習の両方により,ロボットの性能が向上することがわかった。
さらに興味深いことに、ロボットはナビゲーションタスクから学び、ダイアログ戦略を改善することができた。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Unsupervised Skill Discovery for Robotic Manipulation through Automatic Task Generation [17.222197596599685]
本稿では,多数の自律的タスクを解くことで構成可能な振る舞いを発見するスキル学習手法を提案する。
本手法は,ロボットが環境内の物体と連続的かつ堅牢に対話することを可能にするスキルを学習する。
学習したスキルは、シミュレーションだけでなく、本物のロボットプラットフォーム上でも、目に見えない操作タスクのセットを解決するために使用できる。
論文 参考訳(メタデータ) (2024-10-07T09:19:13Z) - SECURE: Semantics-aware Embodied Conversation under Unawareness for Lifelong Robot Learning [17.125080112897102]
本稿では,ロボットが指示されたタスクを解く上で鍵となる概念を知らない,困難な対話型タスク学習シナリオについて論じる。
本稿では,このような問題を解決するための対話型タスク学習フレームワークSECUREを提案する。
SECUREを用いて、ロボットはミスをしたときのユーザの補正フィードバックから学習するだけでなく、指示されたタスクを解決するための新しい概念に関する有用な証拠を明らかにするための戦略的対話決定も行う。
論文 参考訳(メタデータ) (2024-09-26T11:40:07Z) - Continual Skill and Task Learning via Dialogue [3.3511259017219297]
連続的かつ対話的なロボット学習は、ロボットが人間のユーザーと一緒にいるため、難しい問題である。
本稿では,人間との対話を通じて,ロボットがロボットのスキルを質問し,学習し,関連する情報を処理するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T01:51:54Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning robot motor skills with mixed reality [0.8121462458089141]
最近MR(Mixed Reality)は、エンドユーザがロボットを教えるための直感的なインターフェースとして大きな成功を収めた。
エンドユーザーがロボットにa)動作デモ、b)タスク制約、c)計画表現、d)オブジェクト情報を教える学習フレームワークを提案する。
我々は、この世界の知識を伝達することはMRインタフェースで直感的であり、サンプリング効率の良いモータースキル学習フレームワークによってロボットが複雑なタスクを効果的に解くことができると仮定する。
論文 参考訳(メタデータ) (2022-03-21T20:25:40Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z) - Deep Reinforcement Learning with Interactive Feedback in a Human-Robot
Environment [1.2998475032187096]
対話型フィードバックを用いた深層強化学習手法を提案し,人間ロボットのシナリオで家庭内課題を学習する。
シミュレーションロボットアームを用いた3つの学習手法を比較し,異なる物体を整理する作業について検討した。
その結果、学習エージェントは、エージェントIDeepRLまたはヒューマンIDeepRLを使用して、与えられたタスクを早期に完了し、自律的なDeepRLアプローチと比較して誤りが少ないことがわかった。
論文 参考訳(メタデータ) (2020-07-07T11:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。