論文の概要: Visual Place Cell Encoding: A Computational Model for Spatial Representation and Cognitive Mapping
- arxiv url: http://arxiv.org/abs/2504.15953v1
- Date: Tue, 22 Apr 2025 14:49:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 17:48:27.694263
- Title: Visual Place Cell Encoding: A Computational Model for Spatial Representation and Cognitive Mapping
- Title(参考訳): ビジュアルプレースセルエンコーディング:空間表現と認知マッピングのための計算モデル
- Authors: Chance J. Hamilton, Alfredo Weitzenfeld,
- Abstract要約: 本稿では,視覚入力を用いて位置細胞様活性化をシミュレートするための生物学的にインスパイアされた枠組みを提案する。
ロボット搭載カメラで撮影した画像から抽出した高次元の外観特徴をクラスタリングすることで,視覚的な位置セルを活性化する。
その結果, 活性化パターンが, 空間的近接性, 配向配向性, 境界差などの生体位置細胞の重要な性質と相関するかどうかを調べた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the Visual Place Cell Encoding (VPCE) model, a biologically inspired computational framework for simulating place cell-like activation using visual input. Drawing on evidence that visual landmarks play a central role in spatial encoding, the proposed VPCE model activates visual place cells by clustering high-dimensional appearance features extracted from images captured by a robot-mounted camera. Each cluster center defines a receptive field, and activation is computed based on visual similarity using a radial basis function. We evaluate whether the resulting activation patterns correlate with key properties of biological place cells, including spatial proximity, orientation alignment, and boundary differentiation. Experiments demonstrate that the VPCE can distinguish between visually similar yet spatially distinct locations and adapt to environment changes such as the insertion or removal of walls. These results suggest that structured visual input, even in the absence of motion cues or reward-driven learning, is sufficient to generate place-cell-like spatial representations and support biologically inspired cognitive mapping.
- Abstract(参考訳): 本稿では,視覚入力を用いた位置セルアクティベーションをシミュレーションするための生物学的にインスパイアされた計算フレームワークである,視覚的位置セルエンコーディング(VPCE)モデルを提案する。
視覚的ランドマークが空間符号化において中心的な役割を果たすことを示す証拠に基づいて,提案したVPCEモデルは,ロボット搭載カメラで撮影した画像から抽出した高次元の外観特徴をクラスタリングすることにより,視覚的な位置セルを活性化する。
各クラスタセンターは受容場を定義し、放射基底関数を用いて視覚的類似性に基づいてアクティベーションが計算される。
その結果, 活性化パターンが, 空間的近接性, 配向配向性, 境界差などの生体位置細胞の重要な性質と相関するかどうかを調べた。
実験により、VPCEは視覚的に類似しているが空間的に異なる場所を区別し、壁の挿入や除去のような環境変化に適応できることが示された。
以上の結果から,運動手がかりや報酬駆動学習がなくても構造化された視覚入力は,位置セルのような空間表現を生成するのに十分であり,生物学的にインスピレーションを受けた認知マッピングを支援することが示唆された。
関連論文リスト
- A Grid Cell-Inspired Structured Vector Algebra for Cognitive Maps [4.498459787490856]
海馬と海馬の形成は哺乳類の脳のナビゲーションシステムであり、グリッド細胞を介して物理的および抽象的な空間をコードしている。
本稿では,CANとベクトルアーキテクチャ(VSA)にインスパイアされた脳海馬形成における多目的情報処理の力学モデルを提案する。
グリッドセルVSAモデルは、グリッドセルモジュールの離散スケールと配向を模倣した3次元モジュールによる空間的に構造化された符号化方式を採用している。
論文 参考訳(メタデータ) (2025-03-11T16:45:52Z) - Control-oriented Clustering of Visual Latent Representation [3.9838014203847862]
ビヘイビアクローンから学習した画像ベース制御パイプラインにおける視覚表現空間の幾何学について検討する。
神経崩壊現象に触発されて、視覚表現空間におけるクラスタリングの同様の法則を示す。
このようなクラスタリングの法則を,テスト時間性能を改善するアルゴリズムツールとして活用できることを示す。
論文 参考訳(メタデータ) (2024-10-07T14:21:51Z) - Finding Shared Decodable Concepts and their Negations in the Brain [4.111712524255376]
我々は、自然視画像観察中に脳の反応をCLIP埋め込みにマッピングする非常に正確なコントラストモデルを訓練する。
次に、DBSCANクラスタリングアルゴリズムの新たな適応を用いて、参加者固有のコントラストモデルパラメータをクラスタリングする。
各SDCクラスタに最も多く,最も関連付けられていない画像を調べることで,各SDCのセマンティック特性についてさらなる知見が得られる。
論文 参考訳(メタデータ) (2024-05-27T21:28:26Z) - Grad-CAMO: Learning Interpretable Single-Cell Morphological Profiles from 3D Cell Painting Images [0.0]
教師付き特徴抽出器のための新しい単一セル解釈可能性スコアであるGrad-CAMOを紹介する。
Grad-CAMOは、関心の細胞と背景の細胞に集中しているモデルの注意率を測定する。
論文 参考訳(メタデータ) (2024-03-26T11:48:37Z) - Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - GeoVLN: Learning Geometry-Enhanced Visual Representation with Slot
Attention for Vision-and-Language Navigation [52.65506307440127]
我々は,ロバストなビジュアル・アンド・ランゲージナビゲーションのためのスロットアテンションに基づく幾何学的視覚表現を学習するGeoVLNを提案する。
我々はV&L BERTを用いて言語情報と視覚情報の両方を組み込んだクロスモーダル表現を学習する。
論文 参考訳(メタデータ) (2023-05-26T17:15:22Z) - A kinetic approach to consensus-based segmentation of biomedical images [39.58317527488534]
バイオメディカルセグメンテーション問題に有界信頼度コンセンサスモデルの運動バージョンを適用した。
システムの長時間の挙動は、代理のフォッカー・プランク法(英語版)の助けを借りて計算される。
2次元グレースケール画像の関連集合に対して導入されたセグメンテーション距離を最小化する。
論文 参考訳(メタデータ) (2022-11-08T09:54:34Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Saliency map using features derived from spiking neural networks of
primate visual cortex [0.0]
生体視覚システムにインスパイアされた,デジタル画像の鮮度マップ作成のためのフレームワークを提案する。
これらの領域間の接続性をモデル化するために、スパイクニューラルネットワーク(SNN)シミュレータであるCARLsimライブラリを使用する。
CARLsimが生成したスパイクは抽出された特徴として機能し、私たちの唾液検出アルゴリズムに入力します。
論文 参考訳(メタデータ) (2022-05-02T18:52:39Z) - Revisiting spatio-temporal layouts for compositional action recognition [63.04778884595353]
私たちは、アクション認識にオブジェクト中心のアプローチを取ります。
本論文の主な焦点は、合成/ファウショット動作認識である。
レイアウトモデルとの融合による外観モデルの性能向上を実証する。
論文 参考訳(メタデータ) (2021-11-02T23:04:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。