論文の概要: Robot in the mirror: toward an embodied computational model of mirror
self-recognition
- arxiv url: http://arxiv.org/abs/2011.04485v1
- Date: Mon, 9 Nov 2020 15:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 01:54:43.966961
- Title: Robot in the mirror: toward an embodied computational model of mirror
self-recognition
- Title(参考訳): 鏡の中のロボット : 鏡自己認識の具体化計算モデルに向けて
- Authors: Matej Hoffmann, Shengzhi Wang, Vojtech Outrata, Elisabet Alzueta,
Pablo Lanillos
- Abstract要約: 鏡の自己認識テストは、被験者の顔に隠れてマークを付け、鏡の前に彼女を置き、反応を観察する。
この作業では、このテストに合格するために必要なコンポーネントについて、機械的分解(mechanistic decomposition)またはプロセスモデルを提供します。
そこで我々は,ヒューマノイドロボットのNuがテストに合格できるようにするモデルを開発した。
- 参考スコア(独自算出の注目度): 1.9686770963118383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-recognition or self-awareness is a capacity attributed typically only to
humans and few other species. The definitions of these concepts vary and little
is known about the mechanisms behind them. However, there is a Turing test-like
benchmark: the mirror self-recognition, which consists in covertly putting a
mark on the face of the tested subject, placing her in front of a mirror, and
observing the reactions. In this work, first, we provide a mechanistic
decomposition, or process model, of what components are required to pass this
test. Based on these, we provide suggestions for empirical research. In
particular, in our view, the way the infants or animals reach for the mark
should be studied in detail. Second, we develop a model to enable the humanoid
robot Nao to pass the test. The core of our technical contribution is learning
the appearance representation and visual novelty detection by means of learning
the generative model of the face with deep auto-encoders and exploiting the
prediction error. The mark is identified as a salient region on the face and
reaching action is triggered, relying on a previously learned mapping to arm
joint angles. The architecture is tested on two robots with a completely
different face.
- Abstract(参考訳): 自己認識または自己認識は、典型的には人間や他の少数の種にのみ帰属する能力である。
これらの概念の定義は様々であり、その背後にあるメカニズムについてはほとんど知られていない。
しかし、チューリングテストのようなベンチマークがある:鏡の自己認識は、テスト対象者の顔に秘密裏にマークを付け、彼女を鏡の前に置き、反応を観察している。
この作業では、まず、このテストに合格するために必要なコンポーネントの機械的分解、すなわちプロセスモデルを提供します。
これらをもとに,実証研究への提案を行う。
特に、我々の見解では、幼児や動物がマークに到達する方法は、詳細に研究されるべきである。
第2に,ヒューマノイドロボットであるnaoがテストに合格するモデルを開発した。
我々の技術貢献の核心は、深層自己エンコーダで顔の生成モデルを学習し、予測誤差を利用して外観表現と視覚的新規性検出を学習することである。
マークは顔のサルエント領域として識別され、以前に学習した腕関節角度へのマッピングに依存して、到達動作がトリガーされる。
アーキテクチャは、まったく異なる顔を持つ2つのロボットでテストされる。
関連論文リスト
- Where Am I and What Will I See: An Auto-Regressive Model for Spatial Localization and View Prediction [60.964512894143475]
本稿では,空間的局所化とビュー予測を共同で扱う新しい自動回帰フレームワークである生成空間変換器(GST)を提案する。
本モデルでは,カメラのポーズを1つの画像から同時に推定し,新しいカメラのポーズから視点を予測し,空間認識と視覚予測のギャップを効果的に埋める。
論文 参考訳(メタデータ) (2024-10-24T17:58:05Z) - Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Robot at the Mirror: Learning to Imitate via Associating Self-supervised
Models [0.0]
我々は、トレーニングや微調整の代わりにアソシエイトを通じて、準備済みの自己教師付きモデルからカスタムモデルを構築するアプローチを導入する。
そこで本研究では,鏡を映し出したヒューマノイドロボットが,知覚した画像から身体の3Dポーズを検出することを実演する。
論文 参考訳(メタデータ) (2023-11-22T08:30:20Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Do humans and machines have the same eyes? Human-machine perceptual
differences on image classification [8.474744196892722]
訓練されたコンピュータビジョンモデルは、トレーニングラベルから学んだ人間の振る舞いを模倣することにより、視覚課題を解決すると仮定される。
本研究はまず,2つの情報源からの誤りの統計的分布を定量化し,解析する。
我々は、人間や機械を単独で上回るポストホックな人間と機械のコラボレーションを実証的に実証する。
論文 参考訳(メタデータ) (2023-04-18T05:09:07Z) - Aligning Robot and Human Representations [50.070982136315784]
ロボット工学における現在の表現学習アプローチは、表現アライメントの目的がいかにうまく達成されているかの観点から研究されるべきである。
問題を数学的に定義し、その鍵となるデシダータを同定し、この形式主義の中に現在の方法を置く。
論文 参考訳(メタデータ) (2023-02-03T18:59:55Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Full-Body Visual Self-Modeling of Robot Morphologies [29.76701883250049]
身体の内部計算モデルは、ロボットや動物が行動の計画と制御を行う能力の基礎である。
完全データ駆動型自己モデリングの最近の進歩により、マシンはタスク非依存の相互作用データから直接フォワードキネマティクスを学習できるようになった。
ここでは、フォワードキネマティクスを直接モデル化するのではなく、空間占有クエリに答えることのできる、より有用な自己モデリング形式を提案する。
論文 参考訳(メタデータ) (2021-11-11T18:58:07Z) - Smile Like You Mean It: Driving Animatronic Robotic Face with Learned
Models [11.925808365657936]
人間のような社会ロボットを構築するには、知的で一般化可能な表情を生成する能力が不可欠である。
顔模倣のための視覚に基づく自己教師型学習フレームワークを開発した。
本手法は, 多様な被験者に対して, 正確かつ多様な顔の模倣を可能にする。
論文 参考訳(メタデータ) (2021-05-26T17:57:19Z) - A robot that counts like a child: a developmental model of counting and
pointing [69.26619423111092]
実物を数えることができる新しい神経ロボティクスモデルを導入する。
このモデルにより,エンボディメントと数値認識の相互作用を調べることができる。
トレーニングされたモデルは、アイテムのセットをカウントすることができ、同時にそれらを指し示します。
論文 参考訳(メタデータ) (2020-08-05T21:06:27Z) - Robot self/other distinction: active inference meets neural networks
learning in a mirror [9.398766540452632]
ロボットがミラー上で非出現自認を行うことを可能にするアルゴリズムを提案する。
このアルゴリズムは、脳内の知覚と行動の理論モデルであるアクティブ推論とニューラルネットワーク学習を組み合わせる。
ヒューマノイドロボットの実験結果から,初期条件の異なるアルゴリズムの信頼性が示された。
論文 参考訳(メタデータ) (2020-04-11T19:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。