論文の概要: On learning spatial sequences with the movement of attention
- arxiv url: http://arxiv.org/abs/2311.06856v1
- Date: Sun, 12 Nov 2023 14:14:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 16:28:13.307300
- Title: On learning spatial sequences with the movement of attention
- Title(参考訳): 注意運動を伴う空間列の学習について
- Authors: Viacheslav M. Osaulenko
- Abstract要約: 我々は最小記述長の原則に反対し、注意の動きに焦点をあてる。
まず、いくつかのモデルでパラメータを見つけるのではなく、選択主義学習を探求する。次に、ニューラルネットワークアーキテクチャではなく、新しいデータ構造を見つけ、冗長な機能を効率的に保存し、運用することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we start with a simple question, how is it possible that humans
can recognize different movements over skin with only a prior visual experience
of them? Or in general, what is the representation of spatial sequences that
are invariant to scale, rotation, and translation across different modalities?
To answer, we rethink the mathematical representation of spatial sequences,
argue against the minimum description length principle, and focus on the
movements of attention. We advance the idea that spatial sequences must be
represented on different levels of abstraction, this adds redundancy but is
necessary for recognition and generalization. To address the open question of
how these abstractions are formed we propose two hypotheses: the first invites
exploring selectionism learning, instead of finding parameters in some models;
the second proposes to find new data structures, not neural network
architectures, to efficiently store and operate over redundant features to be
further selected. Movements of attention are central to human cognition and
lessons should be applied to new better learning algorithms.
- Abstract(参考訳): 本稿では,人間の皮膚上の動きを視覚的経験のみで認識することは,どのようにして可能か,という簡単な質問から始める。
あるいは一般に、異なる様相をまたいだスケール、回転、および変換に不変な空間列の表現とは何か。
そこで我々は,空間列の数学的表現を再考し,最小記述長の原理に反対し,注意の移動に焦点を当てた。
我々は、空間列は異なる抽象レベルで表現されなければならず、冗長性が増すが認識と一般化には必要であるという考えを前進させる。
ひとつは、いくつかのモデルでパラメータを見つけるのではなく、選択主義学習を探求すること、もうひとつは、ニューラルネットワークアーキテクチャではなく、新しいデータ構造を見つけること、もうひとつは冗長な機能を効率的に保存し、運用すること、の2つだ。
注意の動きは人間の認知の中心であり、新しい学習アルゴリズムに教訓を適用するべきである。
関連論文リスト
- Contrastive Sequential Interaction Network Learning on Co-Evolving
Riemannian Spaces [44.175106851212874]
本稿では,Riemann空間を共進化させるCSINCEREにおける逐次相互作用ネットワーク学習のための新しいコントラストモデルを提案する。
CSINCEREでは、表現空間を横断するメッセージパッシングのためのクロススペースアグリゲーションを定式化する。
また、時間とともに空間の進化をモデル化するためのリッチ曲率に基づくニューラル曲率推定器を設計する。
論文 参考訳(メタデータ) (2024-01-02T15:19:01Z) - Understanding Self-Predictive Learning for Reinforcement Learning [61.62067048348786]
強化学習のための自己予測学習の学習ダイナミクスについて検討する。
本稿では,2つの表現を同時に学習する新しい自己予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-06T20:43:37Z) - Representational dissimilarity metric spaces for stochastic neural
networks [4.229248343585332]
神経表現の類似性を定量化することは、深層学習と神経科学研究における長年の問題である。
形状メトリクスを一般化して表現の違いを定量化する。
神経生物学的指向型視覚格子と自然主義的なシーンはそれぞれ、訓練されていない深層ネットワーク表現と訓練された深部ネットワーク表現に類似している。
論文 参考訳(メタデータ) (2022-11-21T17:32:40Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Grounding Psychological Shape Space in Convolutional Neural Networks [0.0]
我々は畳み込みニューラルネットワークを用いて、知覚入力間の一般化可能なマッピングと、最近提案された形状領域の心理学的類似性空間を学習する。
この結果から,分類に基づくマルチタスク学習シナリオが最も優れた結果が得られるが,その性能は類似性空間の次元に比較的敏感であることが示唆された。
論文 参考訳(メタデータ) (2021-11-16T12:21:07Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Understanding the computational demands underlying visual reasoning [10.308647202215708]
我々は,現代の深層畳み込みニューラルネットワークによる視覚的推論問題の解法を体系的に評価する。
我々の分析は、視覚的推論タスクの新たな分類につながり、主に、その基礎となるルールを構成するために使用される関係の種類と関係の数によって説明できる。
論文 参考訳(メタデータ) (2021-08-08T10:46:53Z) - Gravitational Models Explain Shifts on Human Visual Attention [80.76475913429357]
視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
論文 参考訳(メタデータ) (2020-09-15T10:12:41Z) - Video Representation Learning by Recognizing Temporal Transformations [37.59322456034611]
本研究では,モーションダイナミクスの変化に応答するビデオの表現を学習するための,新たな自己教師型学習手法を提案する。
人間のアノテーションを使わずに正確な動きの学習を促進するために、ニューラルネットワークを訓練し、その時間的に変換されたバージョンから映像シーケンスを識別する。
本実験により,提案手法を用いてトレーニングしたネットワークは,動作認識のための転送性能の向上を図った。
論文 参考訳(メタデータ) (2020-07-21T11:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。