論文の概要: Self-Calibrating Active Binocular Vision via Active Efficient Coding
with Deep Autoencoders
- arxiv url: http://arxiv.org/abs/2101.11391v1
- Date: Wed, 27 Jan 2021 13:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 07:23:48.017969
- Title: Self-Calibrating Active Binocular Vision via Active Efficient Coding
with Deep Autoencoders
- Title(参考訳): ディープオートエンコーダによる能動的符号化による自己キャリブレーション能動双眼視
- Authors: Charles Wilmot, Bertram E. Shi, Jochen Triesch
- Abstract要約: 本稿では,視覚表現,頂点,追跡眼球運動の同時学習を含む,アクティブ両眼視の自己校正モデルを提案する。
このモデルは、古典的効率的な符号化仮説をアクティブな知覚へと拡張した、アクティブ・エフェクト・コーディング(AEC)の原則に従っている。
- 参考スコア(独自算出の注目度): 5.653716495767271
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a model of the self-calibration of active binocular vision
comprising the simultaneous learning of visual representations, vergence, and
pursuit eye movements. The model follows the principle of Active Efficient
Coding (AEC), a recent extension of the classic Efficient Coding Hypothesis to
active perception. In contrast to previous AEC models, the present model uses
deep autoencoders to learn sensory representations. We also propose a new
formulation of the intrinsic motivation signal that guides the learning of
behavior. We demonstrate the performance of the model in simulations.
- Abstract(参考訳): 本研究では,視覚表現の同時学習,明るさ,眼球運動の探索を含む能動双眼視の自己校正モデルを提案する。
このモデルは、従来の効率的なコーディング仮説をアクティブな知覚に拡張した、アクティブ・効率・コーディング(aec)の原理に従っている。
従来のAECモデルとは対照的に,本モデルはディープオートエンコーダを用いて感覚表現を学習する。
また,行動の学習を導く本質的動機づけ信号の新しい定式化を提案する。
モデルの性能をシミュレーションで実証します。
関連論文リスト
- DSReLU: A Novel Dynamic Slope Function for Superior Model Training [2.2057562301812674]
このアプローチの理論的根拠は、ReLUのような従来のアクティベーション関数に関連する制限を克服することである。
提案手法は,Mini-ImageNet,CIFAR-100,MIT-BIHデータセットに基づいて,分類基準と一般化能力の改善を実証した。
論文 参考訳(メタデータ) (2024-08-17T10:01:30Z) - A spatiotemporal style transfer algorithm for dynamic visual stimulus
generation [0.0]
動的視覚刺激生成フレームワークであるSTSTアルゴリズムを導入する。
これは、動的視覚刺激を生成するために空間的特徴と時間的特徴を分解する2ストリームのディープニューラルネットワークモデルに基づいている。
提案アルゴリズムは, 層活性化を自然なビデオと一致させる動的刺激であるモデルメタマーの生成を可能にすることを示す。
論文 参考訳(メタデータ) (2024-03-07T23:07:46Z) - Generative Model-based Feature Knowledge Distillation for Action
Recognition [11.31068233536815]
本稿では,軽量学生モデルの学習のための生成モデルを用いた,革新的な知識蒸留フレームワークについて紹介する。
提案手法の有効性は,多種多様な人気データセットに対する総合的な実験によって実証される。
論文 参考訳(メタデータ) (2023-12-14T03:55:29Z) - Exploring Model Transferability through the Lens of Potential Energy [78.60851825944212]
トランスファーラーニングは、事前訓練されたディープラーニングモデルが広く利用可能であることから、コンピュータビジョンタスクにおいて重要になっている。
既存のトレーニング済みモデルの転送可能性の測定方法は、符号化された静的特徴とタスクラベルの間の統計的相関に依存する。
我々はこれらの課題に対処するために,PEDという物理に着想を得たアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:15:57Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Learning Oculomotor Behaviors from Scanpath [4.611116211281628]
そこで我々は,下流タスクの学習を容易にするために,オキュロモータ・スキャンパスの豊かな表現を生成する新しい手法を開発した。
提案した刺激非依存のOculomotor Behavior Framework (OBF) モデルは、教師なしおよび半教師なしタスクから人間のOculomotor Behaviorsを学習する。
論文 参考訳(メタデータ) (2021-08-11T04:38:17Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Model-Based Inverse Reinforcement Learning from Visual Demonstrations [20.23223474119314]
本稿では,視覚的人間の実演のみを与えられた場合のコスト関数を学習する,勾配に基づく逆強化学習フレームワークを提案する。
学習したコスト関数は、視覚モデル予測制御によって実証された振る舞いを再現するために使用される。
2つの基本的なオブジェクト操作タスクでハードウェアのフレームワークを評価する。
論文 参考訳(メタデータ) (2020-10-18T17:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。