論文の概要: Active Inference for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2206.10313v1
- Date: Wed, 1 Jun 2022 12:19:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 03:43:11.217183
- Title: Active Inference for Robotic Manipulation
- Title(参考訳): ロボットマニピュレーションのためのアクティブ推論
- Authors: Tim Schneider, Boris Belousov, Hany Abdulsamad, Jan Peters
- Abstract要約: アクティブ推論(英: Active Inference)は、部分的に可観測性を扱う理論である。
本研究では,ロボット操作作業のシミュレーションにActive Inferenceを適用した。
アクティブ推論によって引き起こされる情報探索行動により,エージェントはこれらの難易度の高い環境を体系的に探索できることを示す。
- 参考スコア(独自算出の注目度): 30.692885688744507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic manipulation stands as a largely unsolved problem despite significant
advances in robotics and machine learning in the last decades. One of the
central challenges of manipulation is partial observability, as the agent
usually does not know all physical properties of the environment and the
objects it is manipulating in advance. A recently emerging theory that deals
with partial observability in an explicit manner is Active Inference. It does
so by driving the agent to act in a way that is not only goal-directed but also
informative about the environment. In this work, we apply Active Inference to a
hard-to-explore simulated robotic manipulation tasks, in which the agent has to
balance a ball into a target zone. Since the reward of this task is sparse, in
order to explore this environment, the agent has to learn to balance the ball
without any extrinsic feedback, purely driven by its own curiosity. We show
that the information-seeking behavior induced by Active Inference allows the
agent to explore these challenging, sparse environments systematically.
Finally, we conclude that using an information-seeking objective is beneficial
in sparse environments and allows the agent to solve tasks in which methods
that do not exhibit directed exploration fail.
- Abstract(参考訳): ロボット操作は、過去数十年におけるロボット工学と機械学習の大きな進歩にもかかわらず、ほとんど未解決の問題である。
操作の中心的な課題の1つは部分的可観測性であり、エージェントは通常、事前に操作している環境とオブジェクトの全ての物理的性質を知らない。
部分的に可観測性を明示的に扱う最近の理論はアクティブ推論である。
これは、エージェントにゴール指向だけでなく、環境に関する情報も含む方法で行動させることによって実現される。
本研究は,エージェントがボールのバランスをとる必要があるロボット操作タスクに対して,能動的推論を適用したものである。
この作業の報酬は少ないので、この環境を探索するには、エージェントは、純粋に好奇心によって駆動される、余分なフィードバックなしでボールのバランスをとることを学ぶ必要がある。
アクティブ推論によって引き起こされる情報探索行動により,エージェントはこれらの難易度の高い環境を体系的に探索できることを示す。
最後に,情報探索目的の使用はスパース環境において有益であり,有向探索を行わない手法が失敗するタスクをエージェントが解決できると結論づけた。
関連論文リスト
- Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - ALAN: Autonomously Exploring Robotic Agents in the Real World [28.65531878636441]
ALANは自律的なロボットエージェントで、ほとんどトレーニングや対話の時間なしで現実世界でタスクを実行できる。
これは、物体の動きを反映し、ロボットの位置の変化を無視する環境変化を測定することで実現される。
我々は,ロボットが操作スキルを効率的に探索し,発見することを可能にするために,2つの異なる実世界のプレイキッチン設定に対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-02-13T18:59:09Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Active Exploration for Robotic Manipulation [40.39182660794481]
本稿では,スパース・リワード型ロボット操作作業における効率的な学習を可能にするモデルに基づく能動探索手法を提案する。
我々は,提案アルゴリズムをシミュレーションおよび実ロボットで評価し,スクラッチから本手法を訓練した。
論文 参考訳(メタデータ) (2022-10-23T18:07:51Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - Improving Object Permanence using Agent Actions and Reasoning [8.847502932609737]
既存のアプローチは、低レベルの知覚からオブジェクト永続性を学ぶ。
我々は、ロボットが実行された動作に関する知識を使用する場合、オブジェクトの永続性を改善することができると論じる。
論文 参考訳(メタデータ) (2021-10-01T07:09:49Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z) - Mutual Information-based State-Control for Intrinsically Motivated
Reinforcement Learning [102.05692309417047]
強化学習において、エージェントは、外部報酬信号を用いて一連の目標に到達することを学習する。
自然界では、知的生物は内部の駆動から学習し、外部の信号を必要としない。
目的状態と制御可能な状態の間の相互情報として本質的な目的を定式化する。
論文 参考訳(メタデータ) (2020-02-05T19:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。