論文の概要: Sensorimotor Visual Perception on Embodied System Using Free Energy
Principle
- arxiv url: http://arxiv.org/abs/2006.06192v2
- Date: Tue, 22 Feb 2022 01:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:26:36.951795
- Title: Sensorimotor Visual Perception on Embodied System Using Free Energy
Principle
- Title(参考訳): 自由エネルギー原理を用いた身体システムにおける感性視知覚
- Authors: Kanako Esaki, Tadayuki Matsumura, Kiyoto Ito and Hiroyuki Mizuno
- Abstract要約: 本稿では,視覚知覚のための自由エネルギー原理(FEP)に基づく具体化システムを提案する。
MNISTデータセットを用いて文字認識タスクで評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an embodied system based on the free energy principle (FEP) for
sensorimotor visual perception. We evaluated it in a character-recognition task
using the MNIST dataset. Although the FEP has successfully described a rule
that living things obey mathematically and claims that a biological system
continues to change its internal models and behaviors to minimize the
difference in predicting sensory input, it is not enough to model sensorimotor
visual perception. An embodiment of the system is the key to achieving
sensorimotor visual perception. The proposed embodied system is configured by a
body and memory. The body has an ocular motor system controlling the direction
of eye gaze, which means that the eye can only observe a small focused area of
the environment. The memory is not photographic, but is a generative model
implemented with a variational autoencoder that contains prior knowledge about
the environment, and that knowledge is classified. By limiting body and memory
abilities and operating according to the FEP, the embodied system repeatedly
takes action to obtain the next sensory input based on various potentials of
future sensory inputs. In the evaluation, the inference of the environment was
represented as an approximate posterior distribution of characters (0 - 9). As
the number of repetitions increased, the attention area moved continuously,
gradually reducing the uncertainty of characters. Finally, the probability of
the correct character became the highest among the characters. Changing the
initial attention position provides a different final distribution, suggesting
that the proposed system has a confirmation bias.
- Abstract(参考訳): 本稿では,視覚知覚のための自由エネルギー原理(FEP)に基づく実施システムを提案する。
MNISTデータセットを用いて文字認識タスクで評価した。
FEPは、生物が数学的に従うという規則をうまく記述し、生物学的システムが感覚入力の予測の差を最小限に抑えるために内部モデルと行動を変え続けていると主張しているが、感覚運動の視覚知覚をモデル化するには十分ではない。
感覚運動の視覚知覚を達成するための鍵はシステムの具体化である。
提案するエンボディシステムは、本体とメモリによって構成される。
身体は目視方向を制御する眼運動系を有しており、眼は環境の小さな集中した領域のみを観察できる。
メモリは写真ではなく、環境に関する事前の知識を含む変分オートエンコーダで実装された生成モデルであり、その知識を分類する。
身体能力と記憶能力を制限し、FEPに従って動作させることで、実施システムは、将来の感覚入力の様々な電位に基づいて次の感覚入力を得るために繰り返し行動する。
評価では,環境推定を近似的な文字の後方分布 (0~9) として表現した。
繰り返し数が増加するにつれて、注目領域は連続的に移動し、文字の不確実性は徐々に減少していった。
最終的に、正しいキャラクタの確率が最も高いものになった。
初期注意位置の変更は最終分布が異なることを示し、提案システムに確認バイアスがあることを示唆している。
関連論文リスト
- Emotion Recognition from the perspective of Activity Recognition [0.0]
人間の感情状態、行動、反応を現実世界の環境に適応させることは、潜伏した連続した次元を用いて達成できる。
感情認識システムが現実のモバイルおよびコンピューティングデバイスにデプロイされ統合されるためには、世界中の収集されたデータを考慮する必要がある。
本稿では,注目機構を備えた新しい3ストリームエンドツーエンドのディープラーニング回帰パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-24T18:53:57Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - SSTN: Self-Supervised Domain Adaptation Thermal Object Detection for
Autonomous Driving [6.810856082577402]
コントラスト学習により可視スペクトル領域と赤外スペクトル領域の情報を最大化するための機能埋め込みを学習するためのディープニューラルネットワークSelf Supervised Thermal Network (SSTN)を提案する。
提案手法は、FLIR-ADASデータセットとKAISTマルチスペクトラルデータセットの2つの公開データセットで広く評価されている。
論文 参考訳(メタデータ) (2021-03-04T16:42:49Z) - Energy Aware Deep Reinforcement Learning Scheduling for Sensors
Correlated in Time and Space [62.39318039798564]
相関情報を利用するスケジューリング機構を提案する。
提案したメカニズムは、センサが更新を送信する頻度を決定することができる。
我々は,センサの寿命を大幅に延長できることを示した。
論文 参考訳(メタデータ) (2020-11-19T09:53:27Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Evaluating the Apperception Engine [31.071555696874054]
Apperception Engineは教師なし学習システムである。
両者とも感覚系列を説明し、一意条件の集合を満たすシンボリック因果理論を構築している。
将来のセンサーの読み出しを予測したり、以前の読み出しを再現したり、欠落した読み出しに応用することができる。
論文 参考訳(メタデータ) (2020-07-09T11:54:05Z) - Causal Discovery in Physical Systems from Videos [123.79211190669821]
因果発見は人間の認知の中心にある。
本研究では,ビデオの因果発見の課題を,地層構造を監督せずにエンドツーエンドで検討する。
論文 参考訳(メタデータ) (2020-07-01T17:29:57Z) - Towards a self-organizing pre-symbolic neural model representing
sensorimotor primitives [15.364871660385155]
感覚運動行動の象徴的および言語的表現の獲得は、エージェントが行う認知過程である。
本稿では,視覚刺激から腹側/背側視覚ストリームの発達までの高次情報の概念化を関連づけるモデルを提案する。
我々は,物体を受動的に観察して特徴や動きを学習するロボットを用いて,このモデルを実証する。
論文 参考訳(メタデータ) (2020-06-20T01:58:28Z) - Visualizing and Understanding Vision System [0.6510507449705342]
視覚認識再構成ネットワーク (RRN) を用いて, 発達, 認識, 学習, 忘れるメカニズムについて検討する。
数値認識研究では、RRNが様々な視聴条件下でオブジェクト不変性表現を維持できるのを目撃する。
学習・忘れ研究において、本来のシナプス接続のパターン特異性を保ちつつ、全シナプスを低等級に調整することで、新規な構造認識を行う。
論文 参考訳(メタデータ) (2020-06-11T07:08:49Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。