論文の概要: Robot self/other distinction: active inference meets neural networks
learning in a mirror
- arxiv url: http://arxiv.org/abs/2004.05473v1
- Date: Sat, 11 Apr 2020 19:51:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-14 12:59:37.942541
- Title: Robot self/other distinction: active inference meets neural networks
learning in a mirror
- Title(参考訳): ロボットの自己/他区別:ミラーで学習するニューラルネットワークのアクティブ推論
- Authors: Pablo Lanillos and Jordi Pages and Gordon Cheng
- Abstract要約: ロボットがミラー上で非出現自認を行うことを可能にするアルゴリズムを提案する。
このアルゴリズムは、脳内の知覚と行動の理論モデルであるアクティブ推論とニューラルネットワーク学習を組み合わせる。
ヒューマノイドロボットの実験結果から,初期条件の異なるアルゴリズムの信頼性が示された。
- 参考スコア(独自算出の注目度): 9.398766540452632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self/other distinction and self-recognition are important skills for
interacting with the world, as it allows humans to differentiate own actions
from others and be self-aware. However, only a selected group of animals,
mainly high order mammals such as humans, has passed the mirror test, a
behavioural experiment proposed to assess self-recognition abilities. In this
paper, we describe self-recognition as a process that is built on top of body
perception unconscious mechanisms. We present an algorithm that enables a robot
to perform non-appearance self-recognition on a mirror and distinguish its
simple actions from other entities, by answering the following question: am I
generating these sensations? The algorithm combines active inference, a
theoretical model of perception and action in the brain, with neural network
learning. The robot learns the relation between its actions and its body with
the effect produced in the visual field and its body sensors. The prediction
error generated between the models and the real observations during the
interaction is used to infer the body configuration through free energy
minimization and to accumulate evidence for recognizing its body. Experimental
results on a humanoid robot show the reliability of the algorithm for different
initial conditions, such as mirror recognition in any perspective, robot-robot
distinction and human-robot differentiation.
- Abstract(参考訳): 自己/他的区別と自己認識は、人間が他人と自分の行動を区別し、自己認識できるため、世界と対話するための重要なスキルである。
しかし、自己認識能力を評価するために提案された行動実験であるミラーテストに合格したのは、ヒトなどの高次哺乳類を主とする動物群のみである。
本稿では,自己認識を,身体知覚の無意識のメカニズムの上に構築するプロセスとして記述する。
我々は,ロボットが鏡上で非見かけの自己認識を実行し,その単純な動作を他の物体と区別することを可能にするアルゴリズムを提案する。
このアルゴリズムは、脳における知覚と行動の理論モデルであるアクティブ推論とニューラルネットワーク学習を組み合わせる。
ロボットは、その行動と身体との関係を、視覚と身体センサーで生成された効果で学習する。
相互作用中のモデルと実際の観測の間に発生する予測誤差は、自由エネルギーの最小化によって体の構成を推測し、その身体を認識する証拠を蓄積するために用いられる。
ヒューマノイドロボットの実験結果は、鏡認識、ロボットとロボットの区別、人間とロボットの区別など、初期条件の異なるアルゴリズムの信頼性を示している。
関連論文リスト
- Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Learning body models: from humans to humanoids [2.855485723554975]
人間と動物は、複数の感覚のモダリティからの情報を組み合わせて、複雑な体を制御し、成長、失敗、ツールの使用に適応する。
鍵となる基礎は、エージェント(人間、動物、ロボット)が開発してきた身体の内部表現である。
脳内での体モデルの操作のメカニズムは、ほとんど不明であり、出生後の経験からどのように構築されているかは、あまり分かっていない。
論文 参考訳(メタデータ) (2022-11-06T07:30:01Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Neuroscience-inspired perception-action in robotics: applying active
inference for state estimation, control and self-perception [2.1067139116005595]
神経科学の発見が、ロボット工学における現在の推定と制御アルゴリズムを改善する機会をいかに開放するかについて議論する。
本稿では,実体プラットフォーム上でのこのような計算モデルの開発から得られた実験と教訓を要約する。
論文 参考訳(メタデータ) (2021-05-10T10:59:38Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Sensorimotor representation learning for an "active self" in robots: A
model survey [10.649413494649293]
人間では、これらの能力は宇宙で私たちの身体を知覚する能力と関連していると考えられている。
本稿では,これらの能力の発達過程について概説する。
人工エージェントにおける自己感覚の出現を可能にする理論計算フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-25T16:31:01Z) - Robot in the mirror: toward an embodied computational model of mirror
self-recognition [1.9686770963118383]
鏡の自己認識テストは、被験者の顔に隠れてマークを付け、鏡の前に彼女を置き、反応を観察する。
この作業では、このテストに合格するために必要なコンポーネントについて、機械的分解(mechanistic decomposition)またはプロセスモデルを提供します。
そこで我々は,ヒューマノイドロボットのNuがテストに合格できるようにするモデルを開発した。
論文 参考訳(メタデータ) (2020-11-09T15:11:31Z) - Human Perception of Intrinsically Motivated Autonomy in Human-Robot
Interaction [2.485182034310304]
人間に生息する環境でロボットを使用する場合の課題は、人間同士の相互作用によって引き起こされる摂動に対して、魅力的だが堅牢な振る舞いを設計することである。
我々のアイデアは、ロボットに本質的なモチベーション(IM)を持たせることで、新しい状況に対処し、人間以外の真の社会的存在として現れるようにすることです。
本稿では、自律的に生成された振る舞いを相互に比較できる「ロボット学者」による研究設計について述べる。
論文 参考訳(メタデータ) (2020-02-14T09:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。