論文の概要: End-to-End Pixel-Based Deep Active Inference for Body Perception and
Action
- arxiv url: http://arxiv.org/abs/2001.05847v3
- Date: Fri, 29 May 2020 21:30:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:35:41.855847
- Title: End-to-End Pixel-Based Deep Active Inference for Body Perception and
Action
- Title(参考訳): エンド・ツー・エンドのピクセルベース深部能動推論による身体知覚と行動に関する研究
- Authors: Cansu Sancaktar, Marcel van Gerven, Pablo Lanillos
- Abstract要約: 人体知覚と行動に触発された画素に基づく深部能動推論アルゴリズムを提案する。
本手法は,シミュレートされた本物の直ロボットにおける身体の知覚と行動を研究することによって検証される。
- 参考スコア(独自算出の注目度): 3.0854497868458464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a pixel-based deep active inference algorithm (PixelAI) inspired
by human body perception and action. Our algorithm combines the free-energy
principle from neuroscience, rooted in variational inference, with deep
convolutional decoders to scale the algorithm to directly deal with raw visual
input and provide online adaptive inference. Our approach is validated by
studying body perception and action in a simulated and a real Nao robot.
Results show that our approach allows the robot to perform 1) dynamical body
estimation of its arm using only monocular camera images and 2) autonomous
reaching to "imagined" arm poses in the visual space. This suggests that robot
and human body perception and action can be efficiently solved by viewing both
as an active inference problem guided by ongoing sensory input.
- Abstract(参考訳): 我々は人体知覚と行動に触発されたピクセルベース深部能動推論アルゴリズム(PixelAI)を提案する。
本アルゴリズムは,変動推論に根ざした神経科学のフリーエネルギ原理と深い畳み込みデコーダを組み合わせることで,生の視覚入力を直接処理し,オンライン適応推論を提供する。
本手法は,シミュレーションと本物のnaoロボットを用いて身体の知覚と動作を研究することで検証する。
結果は 我々のアプローチが ロボットが
1)単眼カメラ画像のみを用いた腕の動的身体推定
2)視覚空間における「想像」アームへの自律的な手を伸ばします。
このことは,ロボットと人体の知覚と行動は,現在進行中の感覚入力によって誘導される能動的推論問題として,両者を効果的に解決できることを示唆している。
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Graph Neural Networks for Relational Inductive Bias in Vision-based Deep
Reinforcement Learning of Robot Control [0.0]
この研究は、リレーショナル帰納バイアスと視覚フィードバックを組み合わせたニューラルネットワークアーキテクチャを導入し、効率的な位置制御ポリシーを学習する。
我々は、画像符号化ネットワークによって生成された視覚シーンの低次元記述を用いて、ロボットの内部状態をモデル化するグラフ表現を導出する。
視覚的に現実的な3D環境下での6-DoFロボットアームのサンプル効率を向上させるためのモデルの有効性を示す。
論文 参考訳(メタデータ) (2022-03-11T15:11:54Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Gaze-based dual resolution deep imitation learning for high-precision
dexterous robot manipulation [4.717749411286867]
針のスレッディングのような高精度な操作作業は困難である。
人間の視線に基づく双対分解能ビジュモータ制御システムにインスパイアされた、深層模倣学習に基づく手法は、ニードルスレッディングタスクを解くことができる。
論文 参考訳(メタデータ) (2021-02-02T04:11:09Z) - Learning by Watching: Physical Imitation of Manipulation Skills from
Human Videos [28.712673809577076]
本稿では,ロボット操作作業のための人間ビデオからの物理模倣手法を提案する。
人間のビデオをロボットドメインに翻訳し,教師なしのキーポイント検出を行う知覚モジュールを設計した。
リーチ、プッシュ、スライディング、コーヒー製造、引き出しの閉鎖を含む5つのロボット操作タスクに対するアプローチの有効性を評価します。
論文 参考訳(メタデータ) (2021-01-18T18:50:32Z) - Real-time Active Vision for a Humanoid Soccer Robot Using Deep
Reinforcement Learning [0.8701566919381223]
本研究では,ヒューマノイドサッカープレイングロボットの深部強化学習手法を用いたアクティブビジョン手法を提案する。
提案手法は,ロボットの視点を適応的に最適化し,自己ローカライゼーションのための最も有用なランドマークを取得する。
論文 参考訳(メタデータ) (2020-11-27T17:29:48Z) - Robot self/other distinction: active inference meets neural networks
learning in a mirror [9.398766540452632]
ロボットがミラー上で非出現自認を行うことを可能にするアルゴリズムを提案する。
このアルゴリズムは、脳内の知覚と行動の理論モデルであるアクティブ推論とニューラルネットワーク学習を組み合わせる。
ヒューマノイドロボットの実験結果から,初期条件の異なるアルゴリズムの信頼性が示された。
論文 参考訳(メタデータ) (2020-04-11T19:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。