論文の概要: End-to-end topographic networks as models of cortical map formation and
human visual behaviour: moving beyond convolutions
- arxiv url: http://arxiv.org/abs/2308.09431v1
- Date: Fri, 18 Aug 2023 10:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 13:48:45.714021
- Title: End-to-end topographic networks as models of cortical map formation and
human visual behaviour: moving beyond convolutions
- Title(参考訳): 皮質地図形成と人間の視覚行動モデルとしてのエンド・ツー・エンド地形ネットワーク--畳み込みを超えて
- Authors: Zejin Lu, Adrien Doerig, Victoria Bosch, Bas Krahmer, Daniel Kaiser,
Radoslaw M Cichy, Tim C Kietzmann
- Abstract要約: 霊長類視覚システムの組織をモデル化するオールトポグラフィニューラルネットワーク(All-TNN)を開発した。
これらの結果から,All-TNNは,従来の最先端の畳み込みモデルよりも,その地形特性から,人間の行動との整合性が著しく向上していることが示唆された。
これにより、全TNNは視覚脳の空間的構造と、それが視覚行動をどのように仲介するかを理解するための重要な一歩となる。
- 参考スコア(独自算出の注目度): 0.29687381456164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational models are an essential tool for understanding the origin and
functions of the topographic organisation of the primate visual system. Yet,
vision is most commonly modelled by convolutional neural networks that ignore
topography by learning identical features across space. Here, we overcome this
limitation by developing All-Topographic Neural Networks (All-TNNs). Trained on
visual input, several features of primate topography emerge in All-TNNs: smooth
orientation maps and cortical magnification in their first layer, and
category-selective areas in their final layer. In addition, we introduce a
novel dataset of human spatial biases in object recognition, which enables us
to directly link models to behaviour. We demonstrate that All-TNNs
significantly better align with human behaviour than previous state-of-the-art
convolutional models due to their topographic nature. All-TNNs thereby mark an
important step forward in understanding the spatial organisation of the visual
brain and how it mediates visual behaviour.
- Abstract(参考訳): 計算モデルは、霊長類の視覚系の地形組織の起源と機能を理解するための重要なツールである。
しかし、視覚は一般に畳み込みニューラルネットワークによってモデル化され、空間で同じ特徴を学習することで地形を無視している。
本稿では、この制限を全TNN(All-Topographic Neural Networks)によって克服する。
視覚的入力に基づいて訓練された霊長類地形の特徴は、第1層におけるスムーズな向きマップと皮質拡大、最終層におけるカテゴリー選択領域などである。
さらに,物体認識における人間の空間バイアスの新たなデータセットを導入し,モデルと行動を直接リンクできるようにする。
我々は,全tnnが従来の畳み込み畳み込みモデルよりも地形的性質から,人間の行動にかなりよく適合することを示す。
これにより、全TNNは視覚脳の空間的構造と、それが視覚行動をどのように仲介するかを理解するための重要な一歩となる。
関連論文リスト
- Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Graph Neural Operators for Classification of Spatial Transcriptomics
Data [1.408706290287121]
マウス脳組織サンプルにおける脳領域の予測に対する神経オペレーターの適用の有効性を検証するために,様々なグラフニューラルネットワークアプローチを取り入れた研究を提案する。
グラフニューラルネットワークのアプローチでは,F1スコアが72%近く向上し,すべてのベースラインやグラフネットワークのアプローチを上回った。
論文 参考訳(メタデータ) (2023-02-01T18:32:06Z) - Introducing topography in convolutional neural networks [11.595591429581546]
畳み込みニューラルネットワーク(CNN)における新しい地形誘導バイアスを提案する。
視覚および音声タスクの4つのデータセットと3つのモデルについて、新しい手法をベンチマークした。
提案手法は,精度を向上しつつ,よりメモリ効率の良いモデルを得るための新たな道筋を提供する。
論文 参考訳(メタデータ) (2022-10-28T13:20:31Z) - Guiding Visual Attention in Deep Convolutional Neural Networks Based on
Human Eye Movements [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、当初は生物学的ビジョンの原理にインスパイアされていた。
近年のディープラーニングの進歩は、この類似性を減らしているようだ。
有用なモデルを得るための純粋にデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2022-06-21T17:59:23Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Deep Reinforcement Learning Models Predict Visual Responses in the
Brain: A Preliminary Result [1.0323063834827415]
強化学習を用いてニューラルネットワークモデルをトレーニングし、3Dコンピュータゲームをプレイします。
これらの強化学習モデルは、初期視覚領域において、神経応答予測精度のスコアを得る。
対照的に、教師付きニューラルネットワークモデルでは、より高い視覚領域において、より優れた神経応答予測が得られる。
論文 参考訳(メタデータ) (2021-06-18T13:10:06Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。