論文の概要: On learning spatial sequences with the movement of attention
- arxiv url: http://arxiv.org/abs/2311.06856v1
- Date: Sun, 12 Nov 2023 14:14:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 16:28:13.307300
- Title: On learning spatial sequences with the movement of attention
- Title(参考訳): 注意運動を伴う空間列の学習について
- Authors: Viacheslav M. Osaulenko
- Abstract要約: 我々は最小記述長の原則に反対し、注意の動きに焦点をあてる。
まず、いくつかのモデルでパラメータを見つけるのではなく、選択主義学習を探求する。次に、ニューラルネットワークアーキテクチャではなく、新しいデータ構造を見つけ、冗長な機能を効率的に保存し、運用することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we start with a simple question, how is it possible that humans
can recognize different movements over skin with only a prior visual experience
of them? Or in general, what is the representation of spatial sequences that
are invariant to scale, rotation, and translation across different modalities?
To answer, we rethink the mathematical representation of spatial sequences,
argue against the minimum description length principle, and focus on the
movements of attention. We advance the idea that spatial sequences must be
represented on different levels of abstraction, this adds redundancy but is
necessary for recognition and generalization. To address the open question of
how these abstractions are formed we propose two hypotheses: the first invites
exploring selectionism learning, instead of finding parameters in some models;
the second proposes to find new data structures, not neural network
architectures, to efficiently store and operate over redundant features to be
further selected. Movements of attention are central to human cognition and
lessons should be applied to new better learning algorithms.
- Abstract(参考訳): 本稿では,人間の皮膚上の動きを視覚的経験のみで認識することは,どのようにして可能か,という簡単な質問から始める。
あるいは一般に、異なる様相をまたいだスケール、回転、および変換に不変な空間列の表現とは何か。
そこで我々は,空間列の数学的表現を再考し,最小記述長の原理に反対し,注意の移動に焦点を当てた。
我々は、空間列は異なる抽象レベルで表現されなければならず、冗長性が増すが認識と一般化には必要であるという考えを前進させる。
ひとつは、いくつかのモデルでパラメータを見つけるのではなく、選択主義学習を探求すること、もうひとつは、ニューラルネットワークアーキテクチャではなく、新しいデータ構造を見つけること、もうひとつは冗長な機能を効率的に保存し、運用すること、の2つだ。
注意の動きは人間の認知の中心であり、新しい学習アルゴリズムに教訓を適用するべきである。
関連論文リスト
- Neuron: Learning Context-Aware Evolving Representations for Zero-Shot Skeleton Action Recognition [64.56321246196859]
本稿では,dUalスケルトン・セマンティック・セマンティック・セマンティック・セマンティック・シンジスティック・フレームワークを提案する。
まず、時空間進化型マイクロプロトタイプを構築し、動的コンテキスト認識側情報を統合する。
本研究では,空間的圧縮と時間的記憶機構を導入し,空間的時間的マイクロプロトタイプの成長を導く。
論文 参考訳(メタデータ) (2024-11-18T05:16:11Z) - VisualPredicator: Learning Abstract World Models with Neuro-Symbolic Predicates for Robot Planning [86.59849798539312]
本稿では,記号的・神経的知識表現の強みを組み合わせた一階抽象言語Neuro-Symbolic Predicatesを提案する。
提案手法は, サンプルの複雑さの向上, 分布外一般化の強化, 解釈可能性の向上を実現する。
論文 参考訳(メタデータ) (2024-10-30T16:11:05Z) - Building, Reusing, and Generalizing Abstract Representations from Concrete Sequences [51.965994405124455]
人間は異なるシーケンスで抽象パターンを学習し、無関係な詳細をフィルタリングする。
多くのシーケンス学習モデルには抽象化能力がないため、メモリの非効率性や転送の低さにつながる。
非パラメトリック階層型変数学習モデル(HVM)を導入し、シーケンスからチャンクを学習し、文脈的に類似したチャンクを変数として抽象化する。
論文 参考訳(メタデータ) (2024-10-27T18:13:07Z) - Where Am I and What Will I See: An Auto-Regressive Model for Spatial Localization and View Prediction [60.964512894143475]
本稿では,空間的局所化とビュー予測を共同で扱う新しい自動回帰フレームワークである生成空間変換器(GST)を提案する。
本モデルでは,カメラのポーズを1つの画像から同時に推定し,新しいカメラのポーズから視点を予測し,空間認識と視覚予測のギャップを効果的に埋める。
論文 参考訳(メタデータ) (2024-10-24T17:58:05Z) - Gradient-based inference of abstract task representations for generalization in neural networks [5.794537047184604]
ニューラルネットワークを介してタスク表現層に逆伝播する勾配は、現在のタスク要求を推測する効率的な方法であることを示す。
勾配に基づく推論は、学習効率の向上と、新しいタスクや制限への一般化をもたらすことを実証する。
論文 参考訳(メタデータ) (2024-07-24T15:28:08Z) - Contrastive Sequential Interaction Network Learning on Co-Evolving
Riemannian Spaces [44.175106851212874]
本稿では,Riemann空間を共進化させるCSINCEREにおける逐次相互作用ネットワーク学習のための新しいコントラストモデルを提案する。
CSINCEREでは、表現空間を横断するメッセージパッシングのためのクロススペースアグリゲーションを定式化する。
また、時間とともに空間の進化をモデル化するためのリッチ曲率に基づくニューラル曲率推定器を設計する。
論文 参考訳(メタデータ) (2024-01-02T15:19:01Z) - Representational dissimilarity metric spaces for stochastic neural
networks [4.229248343585332]
神経表現の類似性を定量化することは、深層学習と神経科学研究における長年の問題である。
形状メトリクスを一般化して表現の違いを定量化する。
神経生物学的指向型視覚格子と自然主義的なシーンはそれぞれ、訓練されていない深層ネットワーク表現と訓練された深部ネットワーク表現に類似している。
論文 参考訳(メタデータ) (2022-11-21T17:32:40Z) - Grounding Psychological Shape Space in Convolutional Neural Networks [0.0]
我々は畳み込みニューラルネットワークを用いて、知覚入力間の一般化可能なマッピングと、最近提案された形状領域の心理学的類似性空間を学習する。
この結果から,分類に基づくマルチタスク学習シナリオが最も優れた結果が得られるが,その性能は類似性空間の次元に比較的敏感であることが示唆された。
論文 参考訳(メタデータ) (2021-11-16T12:21:07Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Understanding the computational demands underlying visual reasoning [10.308647202215708]
我々は,現代の深層畳み込みニューラルネットワークによる視覚的推論問題の解法を体系的に評価する。
我々の分析は、視覚的推論タスクの新たな分類につながり、主に、その基礎となるルールを構成するために使用される関係の種類と関係の数によって説明できる。
論文 参考訳(メタデータ) (2021-08-08T10:46:53Z) - Gravitational Models Explain Shifts on Human Visual Attention [80.76475913429357]
視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
論文 参考訳(メタデータ) (2020-09-15T10:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。