論文の概要: Perception-Intention-Action Cycle in Human-Robot Collaborative Tasks
- arxiv url: http://arxiv.org/abs/2206.00304v1
- Date: Wed, 1 Jun 2022 08:13:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 13:13:23.994934
- Title: Perception-Intention-Action Cycle in Human-Robot Collaborative Tasks
- Title(参考訳): ロボット協調作業における知覚・意図・行動サイクル
- Authors: J. E. Dominguez-Vidal, Nicolas Rodriguez, Rene Alquezar and Alberto
Sanfeliu
- Abstract要約: 我々は,人間-ロボット協調作業における知覚・行動サイクルが,人間とロボットの協調行動を完全に説明できないことを論じる。
本研究では,共同物体輸送作業における知覚・意図・行動サイクルの検証を行う。
アクションロールはどのHRCタスクにも固有のものであり、タスク中に実行されるアクションの協調的なシーケンスの異なるステップに現れることを示す。
- 参考スコア(独自算出の注目度): 6.071490877668864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work we argue that in Human-Robot Collaboration (HRC) tasks, the
Perception-Action cycle in HRC tasks can not fully explain the collaborative
behaviour of the human and robot and it has to be extended to
Perception-Intention-Action cycle, where Intention is a key topic. In some
cases, agent Intention can be perceived or inferred by the other agent, but in
others, it has to be explicitly informed to the other agent to succeed the goal
of the HRC task. The Perception-Intention-Action cycle includes three basic
functional procedures: Perception-Intention, Situation Awareness and Action.
The Perception and the Intention are the input of the Situation Awareness,
which evaluates the current situation and projects it, into the future
situation. The agents receive this information, plans and agree with the
actions to be executed and modify their action roles while perform the HRC
task. In this work, we validate the Perception-Intention-Action cycle in a
joint object transportation task, modeling the Perception-Intention-Action
cycle through a force model which uses real life and social forces. The
perceived world is projected into a force world and the human intention
(perceived or informed) is also modelled as a force that acts in the HRC task.
Finally, we show that the action roles (master-slave, collaborative, neutral or
adversary) are intrinsic to any HRC task and they appear in the different steps
of a collaborative sequence of actions performed during the task.
- Abstract(参考訳): 本研究では,ヒューマン・ロボット・コラボレーション(HRC)タスクにおいて,HRCタスクの知覚・行動サイクルが人間とロボットの協調行動を完全に説明できないこと,意図が重要なトピックである知覚・意図・行動サイクルにまで拡張する必要があることを論じる。
エージェント意図は、他のエージェントによって認識または推測される場合もあるが、他のエージェントに対して、HRCタスクの目的を成功させるためには、明示的に通知する必要がある。
知覚・意図・行動サイクルは、知覚・意図・状況認識・行動の3つの基本的な機能的手順を含む。
知覚と意図は、現在の状況を評価し、将来の状況に投影する状況認識の入力である。
エージェントはこの情報を受け取り、計画し、実行すべきアクションに同意し、HRCタスクを実行しながらアクションロールを変更します。
本研究では,実生活と社会的力を用いた力モデルを用いて,物体移動作業における知覚・意図・行動サイクルを検証し,知覚・意図・行動サイクルをモデル化する。
知覚された世界は力の世界に投影され、人間の意図(知覚または情報)もまた、HRCタスクに作用する力としてモデル化される。
最後に, アクションロール(マスター・スレーブ, 協力的, 中立的, 敵的)は, 任意のHRCタスクに固有のものであり, 作業中の協調行動の異なるステップに現れることを示す。
関連論文リスト
- COHERENT: Collaboration of Heterogeneous Multi-Robot System with Large Language Models [49.24666980374751]
COHERENTは、異種マルチロボットシステムの協調のための新しいLCMベースのタスク計画フレームワークである。
提案-実行-フィードバック-調整機構は,個々のロボットに対して動作を分解・割り当てするように設計されている。
実験の結果,我々の研究は,成功率と実行効率の面で,従来の手法をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-23T15:53:41Z) - CoAct: A Global-Local Hierarchy for Autonomous Agent Collaboration [87.51781348070914]
既存のLLMは、様々なNLPタスクで顕著なパフォーマンスを示すが、それでも複雑な現実世界タスクに苦戦している。
本稿では,人間社会における階層的計画と協調のパターンをLLMシステムに伝達するCoActフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-19T09:23:53Z) - Anticipate & Collab: Data-driven Task Anticipation and Knowledge-driven Planning for Human-robot Collaboration [13.631341660350028]
日々の生活活動において人間を支援するエージェントは、今後の課題を予測してより効果的に協力することができる。
データ駆動型手法はタスク予測、計画、関連する問題の最先端を表現しているが、これらの手法は資源不足と不透明である。
本稿では,人間とロボットのコラボレーションに向けたこれまでの取り組みを大幅に拡張するフレームワークであるDaTAPlanについて述べる。
論文 参考訳(メタデータ) (2024-04-04T16:52:48Z) - ThinkBot: Embodied Instruction Following with Thought Chain Reasoning [66.09880459084901]
EIF(Embodied Instruction following)は、複雑な環境下でオブジェクトを相互作用させることで、エージェントが人間の指示を完了させる。
我々は,人間の指導における思考連鎖を原因とした思考ボットを提案し,その不足した行動記述を復元する。
私たちのThinkBotは、成功率と実行効率の両面で、最先端のEIFメソッドよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2023-12-12T08:30:09Z) - Unified Human-Scene Interaction via Prompted Chain-of-Contacts [61.87652569413429]
HSI(Human-Scene Interaction)は、AIや仮想現実といった分野において重要なコンポーネントである。
本稿では,言語コマンドによる多様なインタラクションの統一制御を支援する統一型HSIフレームワークUniHSIを提案する。
論文 参考訳(メタデータ) (2023-09-14T17:59:49Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - Learning Action Duration and Synergy in Task Planning for Human-Robot
Collaboration [6.373435464104705]
アクションの持続時間は、エージェントの能力と、人間とロボットが同時に行うアクションの相関に依存する。
本稿では,人間とロボットが同時に実行する動作のコストと結合性を学習するためのアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-21T01:08:11Z) - Considerations for Task Allocation in Human-Robot Teams [4.0711669706762805]
エージェントが協力するヒューマンロボットチームでは、エージェントへのタスクの明確な割り当てが必要です。
エージェント能力、可用性、ワークロード、疲労、タスクとドメイン固有のパラメータなどの要素を含む多くのタスク割り当て手法が提案されている。
論文 参考訳(メタデータ) (2022-10-06T23:57:23Z) - Forming Human-Robot Cooperation for Tasks with General Goal using
Evolutionary Value Learning [9.053709318841232]
人間ロボット協力(HRC)では、ロボットは人間と協力してタスクを一緒に達成します。
既存のアプローチでは、人間が協力中に特定の目標を持っていると仮定し、ロボットはそれを推論し行動する。
HRCにおける目標仕様プロセスのダイナミクスをモデル化するEvolutionary Value Learning(EVL)アプローチを紹介します。
論文 参考訳(メタデータ) (2020-12-19T20:27:09Z) - LEMMA: A Multi-view Dataset for Learning Multi-agent Multi-task
Activities [119.88381048477854]
LEMMAデータセットを導入し、細心の注意深い設定で、行方不明な次元に対処するための単一の家を提供する。
我々は、人間と物体の相互作用による原子間相互作用を密に注釈し、日常の活動の構成性、スケジューリング、割り当ての土台として提供する。
この取り組みにより、マシンビジョンコミュニティは、目標指向の人間活動を調べ、現実世界におけるタスクのスケジューリングと割り当てをさらに研究できることを期待します。
論文 参考訳(メタデータ) (2020-07-31T00:13:54Z) - Adaptive Procedural Task Generation for Hard-Exploration Problems [78.20918366839399]
ハード探索問題における強化学習を容易にするために,適応手続きタスク生成(APT-Gen)を導入する。
私たちのアプローチの中心は、ブラックボックスの手続き生成モジュールを通じてパラメータ化されたタスク空間からタスクを作成することを学習するタスクジェネレータです。
学習進捗の直接指標がない場合のカリキュラム学習を可能にするために,生成したタスクにおけるエージェントのパフォーマンスと,対象タスクとの類似性をバランスさせてタスクジェネレータを訓練することを提案する。
論文 参考訳(メタデータ) (2020-07-01T09:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。