論文の概要: Grid Cell Path Integration For Movement-Based Visual Object Recognition
- arxiv url: http://arxiv.org/abs/2102.09076v1
- Date: Wed, 17 Feb 2021 23:52:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 22:39:33.882962
- Title: Grid Cell Path Integration For Movement-Based Visual Object Recognition
- Title(参考訳): 動きに基づく視覚物体認識のためのグリッドセルパス統合
- Authors: Niels Leadholm (1 and 2), Marcus Lewis (1), Subutai Ahmad (1) ((1)
Numenta, (2) The University of Oxford)
- Abstract要約: 我々は,任意の入力列が与えられたオブジェクトの信頼性認識を支援するために,格子セルをベースとした皮質ネットワークの経路統合をいかに行うかを示す。
我々のネットワーク(GridCellNet)は、グリッドセル計算を用いて視覚情報を統合し、動きに基づいて予測を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Grid cells enable the brain to model the physical space of the world and
navigate effectively via path integration, updating self-position using
information from self-movement. Recent proposals suggest that the brain might
use similar mechanisms to understand the structure of objects in diverse
sensory modalities, including vision. In machine vision, object recognition
given a sequence of sensory samples of an image, such as saccades, is a
challenging problem when the sequence does not follow a consistent, fixed
pattern - yet this is something humans do naturally and effortlessly. We
explore how grid cell-based path integration in a cortical network can support
reliable recognition of objects given an arbitrary sequence of inputs. Our
network (GridCellNet) uses grid cell computations to integrate visual
information and make predictions based on movements. We use local Hebbian
plasticity rules to learn rapidly from a handful of examples (few-shot
learning), and consider the task of recognizing MNIST digits given only a
sequence of image feature patches. We compare GridCellNet to k-Nearest
Neighbour (k-NN) classifiers as well as recurrent neural networks (RNNs), both
of which lack explicit mechanisms for handling arbitrary sequences of input
samples. We show that GridCellNet can reliably perform classification,
generalizing to both unseen examples and completely novel sequence
trajectories. We further show that inference is often successful after sampling
a fraction of the input space, enabling the predictive GridCellNet to
reconstruct the rest of the image given just a few movements. We propose that
dynamically moving agents with active sensors can use grid cell representations
not only for navigation, but also for efficient recognition and feature
prediction of seen objects.
- Abstract(参考訳): 格子細胞は、脳が世界の物理空間をモデル化し、経路統合を通して効果的にナビゲートし、自己移動の情報を用いて自己位置を更新することを可能にする。
最近の提案では、脳は視覚を含む多様な感覚のモードにおける物体の構造を理解するのに同様のメカニズムを使用することが示唆されている。
マシンビジョンでは、サケードなどの画像の知覚サンプルのシーケンスを与えられたオブジェクト認識は、シーケンスが一貫性のある固定されたパターンに従わない場合の困難な問題です。
我々は、任意の入力列が与えられたオブジェクトの信頼性認識を支援するために、格子セルによる皮質ネットワークへの経路統合について検討する。
我々のネットワーク(GridCellNet)は、グリッドセル計算を用いて視覚情報を統合し、動きに基づいて予測を行う。
ローカルなHebbian可塑性ルールを使用して、いくつかの例(ショットラーニング)から迅速に学習し、画像機能パッチのシーケンスだけを与えられたMNIST桁を認識するタスクを検討します。
我々はGridCellNetとk-Nearest Neighbour(k-NN)分類器、およびリカレントニューラルネットワーク(RNN)を比較した。
我々はGridCellNetが確実に分類を行い、未確認例と全く新しいシーケンストラジェクトリの両方に一般化できることを示す。
さらに,入力空間のごく一部をサンプリングして推論が成功し,わずかな動きで画像の残りの部分を予測可能なグリッドセルネットで再構築できることを示した。
アクティブセンサを用いた動的移動エージェントは,ナビゲーションだけでなく,視覚物体の効率的な認識や特徴予測にもグリッドセル表現を利用することができる。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - Self-Supervised Learning of Representations for Space Generates
Multi-Modular Grid Cells [16.208253624969142]
哺乳類の系統は 顕著な空間表現を発達させました
重要な空間表現の一つがノーベル賞受賞格子細胞である。
ノーベル賞受賞時のグリッド細胞は、自己位置、局所的および周期的な量を表す。
論文 参考訳(メタデータ) (2023-11-04T03:59:37Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Graph Neural Network for Cell Tracking in Microscopy Videos [0.0]
顕微鏡ビデオにおける細胞追跡のための新しいグラフニューラルネットワーク(GNN)を提案する。
タイムラプスシーケンス全体を直接グラフとしてモデル化することにより,セルトラジェクトリの集合全体を抽出する。
我々は、異なる生体細胞のインスタンスを区別する細胞特徴ベクトルを抽出するために、ディープメトリック学習アルゴリズムを利用する。
論文 参考訳(メタデータ) (2022-02-09T21:21:48Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Image segmentation via Cellular Automata [58.86475603234583]
我々は高解像度画像のセグメンテーションを成功させるセルオートマトンを設計し、訓練する。
私たちの最小のオートマトンは、複雑なセグメンテーションタスクを解決するために1万以下のパラメータを使用します。
論文 参考訳(メタデータ) (2020-08-11T19:04:09Z) - Cell Segmentation and Tracking using CNN-Based Distance Predictions and
a Graph-Based Matching Strategy [0.20999222360659608]
顕微鏡画像における触覚細胞のセグメンテーション法を提案する。
距離マップにインスパイアされた新しい細胞境界の表現を用いることで, 触覚細胞だけでなく, 近接細胞をトレーニングプロセスで利用することができる。
この表現は、特にアノテーションエラーに対して堅牢であり、未表現または未含の細胞型を含むトレーニングデータに含まれる顕微鏡画像のセグメンテーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-03T11:55:28Z) - Grid Cells Are Ubiquitous in Neural Networks [0.0]
格子細胞は空間的および非空間的認知タスクにおいて重要な役割を果たしていると考えられている。
最近の研究では、LSTMの経路積分のための格子細胞の出現が観察されている。
論文 参考訳(メタデータ) (2020-03-07T01:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。