論文の概要: Enhancing team performance with transfer-learning during real-world
human-robot collaboration
- arxiv url: http://arxiv.org/abs/2211.13070v1
- Date: Wed, 23 Nov 2022 16:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 16:18:09.663313
- Title: Enhancing team performance with transfer-learning during real-world
human-robot collaboration
- Title(参考訳): 実世界の人間ロボットコラボレーションにおけるトランスファーラーニングによるチームのパフォーマンス向上
- Authors: Athanasios C. Tsitos and Maria Dagioglou
- Abstract要約: 伝達学習は深層強化学習(dRL)エージェントに統合された。
伝達学習(TL)における確率再利用手法
TLはまた、チームの主観的なパフォーマンスにも影響を与え、知覚された流感を高めました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Socially aware robots should be able, among others, to support fluent
human-robot collaboration in tasks that require interdependent actions in order
to be solved. Towards enhancing mutual performance, collaborative robots should
be equipped with adaptation and learning capabilities. However, co-learning can
be a time consuming procedure. For this reason, transferring knowledge from an
expert could potentially boost the overall team performance. In the present
study, transfer learning was integrated in a deep Reinforcement Learning (dRL)
agent. In a real-time and real-world set-up, two groups of participants had to
collaborate with a cobot under two different conditions of dRL agents; one that
was transferring knowledge and one that did not. A probabilistic policy reuse
method was used for the transfer learning (TL). The results showed that there
was a significant difference between the performance of the two groups; TL
halved the time needed for the training of new participants to the task.
Moreover, TL also affected the subjective performance of the teams and enhanced
the perceived fluency. Finally, in many cases the objective performance metrics
did not correlate with the subjective ones providing interesting insights about
the design of transparent and explainable cobot behaviour.
- Abstract(参考訳): 社会的に認識されたロボットは、解決のために相互依存のアクションを必要とするタスクにおいて、人間とロボットの融合を円滑に支援できるはずである。
相互性能の向上に向けて、協調ロボットは適応と学習能力を備えるべきである。
しかし、コラーニングは時間のかかる手順である。
そのため、専門家から知識を移すことで、チーム全体のパフォーマンスが向上する可能性がある。
本研究では,伝達学習を深層強化学習(dRL)エージェントに統合した。
リアルタイムおよび実世界のセットアップでは、参加者の2つのグループは、drlエージェントの2つの異なる条件下でコボットと協力しなければならなかった。
伝達学習(TL)には確率的政策再利用法が用いられた。
その結果、2つのグループの成績には有意差があり、tlは新たな参加者の訓練に要する時間を半減した。
さらに、TLはチームの主観的パフォーマンスにも影響を与え、知覚された流感を高めた。
最後に、多くの場合、客観的なパフォーマンス指標は、透明で説明可能なコボットの振る舞いの設計に関する興味深い洞察を提供する主観的な指標と相関しなかった。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Exploring CausalWorld: Enhancing robotic manipulation via knowledge transfer and curriculum learning [6.683222869973898]
本研究では,指間の複雑な動きと協調を必要とする,学習に基づく三指ロボットアーム操作タスクについて検討する。
強化学習を利用することで、エージェントに熟練した操作に必要なスキルを習得するよう訓練する。
微調整とカリキュラム学習という2つの知識伝達戦略を,ソフトアクター・クリティカルなアーキテクチャで活用した。
論文 参考訳(メタデータ) (2024-03-25T23:19:19Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Progressively Efficient Learning [58.6490456517954]
我々はCEIL(Communication-Efficient Interactive Learning)という新しい学習フレームワークを開発した。
CEILは、学習者と教師がより抽象的な意図を交換することで効率的にコミュニケーションする人間のようなパターンの出現につながる。
CEILで訓練されたエージェントは、新しいタスクを素早く習得し、非階層的で階層的な模倣学習を、絶対的な成功率で最大50%、20%上回った。
論文 参考訳(メタデータ) (2023-10-13T07:52:04Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Identifying Suitable Tasks for Inductive Transfer Through the Analysis
of Feature Attributions [78.55044112903148]
我々は、単一タスクモデル間のニューラルネットワークアクティベーションの比較を通じて、タスクペアが相補的になるかどうかを予測するために、説明可能性技術を使用する。
提案手法により,TREC-IS 2020-Aデータセットでは,正のクラスF1の0.034の削減に留まらず,最大83.5%のトレーニング時間を短縮することが可能である。
論文 参考訳(メタデータ) (2022-02-02T15:51:07Z) - Accelerating the Convergence of Human-in-the-Loop Reinforcement Learning
with Counterfactual Explanations [1.8275108630751844]
Human-in-the-loop Reinforcement Learning (HRL)は、人間のフィードバックと強化学習技術を組み合わせてこの問題に対処する。
我々は,既存のTAMERフレームワークを拡張して,2種類の反現実的説明を用いて,人間のフィードバックを強化する。
論文 参考訳(メタデータ) (2021-08-03T08:27:28Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Two-stage training algorithm for AI robot soccer [2.0757564643017092]
異種エージェントの学習性能を向上させるために,二段階多種集中訓練を提案する。
提案手法は,5対5のAIロボットサッカーを用いて検証を行う。
論文 参考訳(メタデータ) (2021-04-13T04:24:13Z) - Deep Reinforcement Learning with Interactive Feedback in a Human-Robot
Environment [1.2998475032187096]
対話型フィードバックを用いた深層強化学習手法を提案し,人間ロボットのシナリオで家庭内課題を学習する。
シミュレーションロボットアームを用いた3つの学習手法を比較し,異なる物体を整理する作業について検討した。
その結果、学習エージェントは、エージェントIDeepRLまたはヒューマンIDeepRLを使用して、与えられたタスクを早期に完了し、自律的なDeepRLアプローチと比較して誤りが少ないことがわかった。
論文 参考訳(メタデータ) (2020-07-07T11:55:27Z) - Human-Robot Team Coordination with Dynamic and Latent Human Task
Proficiencies: Scheduling with Learning Curves [0.0]
ロボットが人間のチームメイトの相対的な強みと学習能力を探索できる新しい資源調整手法を提案する。
我々は、最新の個人労働者の熟練度を発見しながら、頑健なスケジュールを作成し、評価する。
その結果,人間とロボットのコラボレーションには,探索に有利なスケジューリング戦略が有用であることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T19:44:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。