論文の概要: Focusing Robot Open-Ended Reinforcement Learning Through Users' Purposes
- arxiv url: http://arxiv.org/abs/2503.12579v1
- Date: Sun, 16 Mar 2025 17:22:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:28:02.756241
- Title: Focusing Robot Open-Ended Reinforcement Learning Through Users' Purposes
- Title(参考訳): ユーザの目的を通したロボットのオープンエンディング強化学習
- Authors: Emilio Cartoni, Gianluca Cioccolini, Gianluca Baldassarre,
- Abstract要約: オープンエンドラーニング(OEL)自律ロボットは、環境と直接対話することで、新たなスキルと知識を得ることができる。
目的指向型オープンエンドラーニング(POEL)というソリューションを提案する。
- 参考スコア(独自算出の注目度): 1.0013553984400492
- License:
- Abstract: Open-Ended Learning (OEL) autonomous robots can acquire new skills and knowledge through direct interaction with their environment, relying on mechanisms such as intrinsic motivations and self-generated goals to guide learning processes. OEL robots are highly relevant for applications as they can autonomously leverage acquired knowledge to perform tasks beneficial to human users in unstructured environments, addressing challenges unforeseen at design time. However, OEL robots face a significant limitation: their openness may lead them to waste time learning information that is irrelevant to tasks desired by specific users. Here, we propose a solution called `Purpose-Directed Open-Ended Learning' (POEL), based on the novel concept of `purpose' introduced in previous work. A purpose specifies what users want the robot to achieve. The key insight of this work is that purpose can focus OEL on learning self-generated classes of tasks that, while unknown during autonomous learning (as typical in OEL), involve objects relevant to the purpose. This concept is operationalised in a novel robot architecture capable of receiving a human purpose through speech-to-text, analysing the scene to identify objects, and using a Large Language Model to reason about which objects are purpose-relevant. These objects are then used to bias OEL exploration towards their spatial proximity and to self-generate rewards that favour interactions with them. The solution is tested in a simulated scenario where a camera-arm-gripper robot interacts freely with purpose-related and distractor objects. For the first time, the results demonstrate the potential advantages of purpose-focused OEL over state-of-the-art OEL methods, enabling robots to handle unstructured environments while steering their learning toward knowledge acquisition relevant to users.
- Abstract(参考訳): Open-Ended Learning (OEL) 自律ロボットは、本質的なモチベーションや学習プロセスを導くための自己生成目標といったメカニズムに依存して、環境と直接対話することで、新たなスキルと知識を習得することができる。
OELロボットは、取得した知識を自律的に活用して、非構造化環境で人間のユーザにとって有益なタスクを実行し、設計時に予期せぬ課題に対処するため、アプリケーションに非常に関連性が高い。
しかし、OELロボットは大きな制限に直面しており、そのオープンさは特定のユーザによって望まれるタスクとは無関係な時間の学習情報を無駄にしてしまう可能性がある。
本稿では,従来の研究で導入された「目的」という概念に基づいた「目的指向型オープンエンドラーニング(POEL)」というソリューションを提案する。
目的は、ユーザーがロボットに達成したいものを指定することである。
この研究の重要な洞察は、OELが自己生成したタスクのクラスを学習することに集中できることである。
この概念は、音声からテキストへ人間の目的を受信し、シーンを分析して物体を識別する新しいロボットアーキテクチャで運用され、大言語モデルを用いて目的に関連のある物体を推論する。
これらの物体は、OELの探索をその空間的近接に偏らせ、それらとの相互作用を好む報酬を自己生成するために使用される。
このソリューションは、カメラアーム・グリッパーロボットが目的や注意をそらす物体と自由に対話するシミュレーションシナリオでテストされる。
この結果から,ロボットが非構造化環境を処理し,学習をユーザに関連する知識獲得に向けることのできる,最先端のOEL手法に対する目的重視型OELの潜在的メリットが示された。
関連論文リスト
- A Survey of Embodied Learning for Object-Centric Robotic Manipulation [27.569063968870868]
オブジェクト中心のロボット操作のための身体学習は、AIの急速に発展し、挑戦的な分野である。
データ駆動機械学習とは異なり、具体化学習は環境との物理的相互作用を通じてロボット学習に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-21T11:32:09Z) - Interactive Continual Learning Architecture for Long-Term
Personalization of Home Service Robots [11.648129262452116]
本研究では,人間とロボットのインタラクションを通じて,家庭環境における意味的知識の連続学習のための対話型連続学習アーキテクチャを開発する。
このアーキテクチャは、人間の新しい知識を効率的かつリアルタイムに学習するための学習と記憶のコア認知原則に基づいている。
論文 参考訳(メタデータ) (2024-03-06T04:55:39Z) - Purpose for Open-Ended Learning Robots: A Computational Taxonomy,
Definition, and Operationalisation [41.94533791050234]
この研究は、目的の計算フレームワークを2つの方法で開発するのに貢献する。
a)目的、(b)ドメインに依存しない欲求、(c)特定のドメイン依存状態のゴールを含む3段階のモチベーション階層に基づいて、目的に基づくフレームワークを定式化します。
このアプローチによって、OELロボットは自律的に学習できるだけでなく、デザイナーやユーザの目的を満たす目標やスキルの獲得にも焦点が当てられる。
論文 参考訳(メタデータ) (2024-03-04T22:03:49Z) - Growing from Exploration: A self-exploring framework for robots based on
foundation models [13.250831101705694]
我々は、ロボットが人間の介入なしに自律的に探索し学習することを可能にするGExpというフレームワークを提案する。
幼児が世界と対話する方法に触発されて、GExpはロボットに、一連の自己生成タスクで環境を理解し、探索するように促す。
論文 参考訳(メタデータ) (2024-01-24T14:04:08Z) - Teaching Unknown Objects by Leveraging Human Gaze and Augmented Reality
in Human-Robot Interaction [3.1473798197405953]
この論文は、人間-ロボットインタラクション(HRI)の文脈で未知の物体を教えることを目的としている。
視線追跡と拡張現実(Augmented Reality)を組み合わせることで、人間の教師がロボットとコミュニケーションできる強力なシナジーが生まれました。
ロボットの物体検出能力は、広範囲なデータセットで訓練された最先端の物体検出器に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-12T11:34:43Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。