論文の概要: Causal Learning by a Robot with Semantic-Episodic Memory in an Aesop's
Fable Experiment
- arxiv url: http://arxiv.org/abs/2003.00274v1
- Date: Sat, 29 Feb 2020 15:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 20:51:01.261122
- Title: Causal Learning by a Robot with Semantic-Episodic Memory in an Aesop's
Fable Experiment
- Title(参考訳): セマンティック・エポゾディック記憶を持つロボットによるAesopのFable実験における因果学習
- Authors: Ajaz A. Bhat and Vishwanathan Mohan
- Abstract要約: 異なる物体と累積的に相互作用することによって、認知エージェントは、新しい物体の価格を予測するために、基礎となる因果関係をどのように抽象化できるのか?
本稿では,ロボット上でのAesopのFableタスクを再実行し,セマンティック・エポシックメモリの脳誘導型ニューラルモデルを提案する。
その後のロボット行動は因果学習を示し、新しい物体の予測はアルキメデスの原理に収束する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Corvids, apes, and children solve The Crow and The Pitcher task (from Aesop's
Fables) indicating a causal understanding of the task. By cumulatively
interacting with different objects, how can cognitive agents abstract the
underlying cause-effect relations to predict affordances of novel objects? We
address this question by re-enacting the Aesop's Fable task on a robot and
present a) a brain-guided neural model of semantic-episodic memory; with b)
four task-agnostic learning rules that compare expectations from recalled past
episodes with the current scenario to progressively extract the hidden causal
relations. The ensuing robot behaviours illustrate causal learning; and
predictions for novel objects converge to Archimedes' principle, independent of
both the objects explored during learning and the order of their cumulative
exploration.
- Abstract(参考訳): 証拠、類人猿、子供は、そのタスクの因果的理解を示すThe Crow and The Pitcherタスク(AesopのFablesから)を解く。
異なる物体と累積的に相互作用することによって、認知エージェントは、新しい物体の価格を予測するために、基礎となる因果関係をどのように抽象化できるのか?
AesopのFableタスクをロボットで再現し,提示することで,この問題に対処する。
a) セマンティック・エポシック記憶の脳誘導神経モデル
b) 過去のエピソードの期待値と現在のシナリオを比較して,隠れた因果関係を段階的に抽出するタスクに依存しない4つの学習規則
その後のロボット行動は因果学習を示し、新しい物体の予測はアルキメデスの原理に収束し、学習中に探索された物体と累積探索の順序から独立する。
関連論文リスト
- Visual Episodic Memory-based Exploration [0.6374763930914523]
人間では、本質的なモチベーションはオープンエンド認知発達の重要なメカニズムであり、ロボットでは探索に有用である。
本稿では,ロボット探索問題への動機づけの源として,視覚的エピソードメモリの利用について検討する。
論文 参考訳(メタデータ) (2024-05-18T13:58:47Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - Robo-ABC: Affordance Generalization Beyond Categories via Semantic
Correspondence for Robot Manipulation [20.69293648286978]
本稿では,ロボット操作のためのフレームワークであるRobo-ABCについて紹介する。
本稿では,Robo-ABCが視覚的可視性検索の精度を大幅に向上させることを示す。
Robo-ABCは85.7%の成功率を達成した。
論文 参考訳(メタデータ) (2024-01-15T06:02:30Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - Association: Remind Your GAN not to Forget [11.653696510515807]
本稿では,連想学習過程を模倣して連続学習を実現する脳様アプローチを提案する。
画像から画像への翻訳作業における破滅的忘れを緩和する手法の有効性を実験により実証した。
論文 参考訳(メタデータ) (2020-11-27T04:43:15Z) - Human and Machine Action Prediction Independent of Object Information [1.0806206850043696]
行動中に変化する物体間関係の役割について検討する。
我々は平均して、アクションの持続時間の64%以下で行動を予測する。
論文 参考訳(メタデータ) (2020-04-22T12:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。