論文の概要: Flexible task abstractions emerge in linear networks with fast and bounded units
- arxiv url: http://arxiv.org/abs/2411.03840v1
- Date: Wed, 06 Nov 2024 11:24:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:22:21.162132
- Title: Flexible task abstractions emerge in linear networks with fast and bounded units
- Title(参考訳): 高速かつ有界な線形ネットワークにおけるフレキシブルタスク抽象化
- Authors: Kai Sandbrink, Jan P. Bauer, Alexandra M. Proca, Andrew M. Saxe, Christopher Summerfield, Ali Hummos,
- Abstract要約: 重みとゲートが勾配降下によって協調的に最適化される線形ゲートネットワークを解析する。
その結果,タスクの抽象化はタスクとサブタスクの合成による一般化を支援することがわかった。
我々の研究は、シナプス的および神経的ゲーティングにおける関節勾配降下から生じる動物の認知的柔軟性の理論を提供する。
- 参考スコア(独自算出の注目度): 47.11054206483159
- License:
- Abstract: Animals survive in dynamic environments changing at arbitrary timescales, but such data distribution shifts are a challenge to neural networks. To adapt to change, neural systems may change a large number of parameters, which is a slow process involving forgetting past information. In contrast, animals leverage distribution changes to segment their stream of experience into tasks and associate them with internal task abstracts. Animals can then respond flexibly by selecting the appropriate task abstraction. However, how such flexible task abstractions may arise in neural systems remains unknown. Here, we analyze a linear gated network where the weights and gates are jointly optimized via gradient descent, but with neuron-like constraints on the gates including a faster timescale, nonnegativity, and bounded activity. We observe that the weights self-organize into modules specialized for tasks or sub-tasks encountered, while the gates layer forms unique representations that switch the appropriate weight modules (task abstractions). We analytically reduce the learning dynamics to an effective eigenspace, revealing a virtuous cycle: fast adapting gates drive weight specialization by protecting previous knowledge, while weight specialization in turn increases the update rate of the gating layer. Task switching in the gating layer accelerates as a function of curriculum block size and task training, mirroring key findings in cognitive neuroscience. We show that the discovered task abstractions support generalization through both task and subtask composition, and we extend our findings to a non-linear network switching between two tasks. Overall, our work offers a theory of cognitive flexibility in animals as arising from joint gradient descent on synaptic and neural gating in a neural network architecture.
- Abstract(参考訳): 動物は任意の時間スケールで変化する動的環境に生き残るが、そのようなデータ分散シフトはニューラルネットワークにとって課題である。
変化に適応するために、ニューラルネットワークは、過去の情報を忘れることを含む遅いプロセスである、多数のパラメータを変更する可能性がある。
対照的に、動物は分布の変化を利用して、経験の流れをタスクに分割し、それらを内部のタスク抽象と関連付ける。
適切なタスク抽象化を選択することで、動物は柔軟に応答できる。
しかし、そのようなフレキシブルなタスク抽象化がニューラルネットワークでどのように起こるのかは、いまだ不明である。
ここでは、重みとゲートが勾配降下によって協調的に最適化される線形ゲートネットワークを解析し、より高速な時間スケール、非負性、有界な活動を含むニューロン様の制約をゲートに与える。
重みはタスクやサブタスクに特有のモジュールに自己組織化され、ゲート層は適切な重みモジュール(タスク抽象)を切り替えるユニークな表現を形成する。
高速適応ゲートは、以前の知識を保護してウェイト・スペシャライゼーションを推進し、ウェイト・スペシャライゼーションはゲーティング・レイヤの更新率を増大させる。
ゲーティング層におけるタスクスイッチングは、カリキュラムブロックサイズとタスクトレーニングの機能として加速し、認知神経科学における重要な発見を反映する。
本研究は,タスクとサブタスクの合成によって,タスクの抽象化が一般化を支援することを示し,この結果を2つのタスク間の非線形ネットワーク切替に拡張する。
全体として、我々の研究は、ニューラルネットワークアーキテクチャにおけるシナプスとニューラルゲーティングの結合勾配降下から生じる、動物の認知的柔軟性の理論を提供する。
関連論文リスト
- Artificial Neuronal Ensembles with Learned Context Dependent Gating [0.0]
LXDG(Learned Context Dependent Gating)は、人工神経のアンサンブルを柔軟に割り当て、リコールする方法である。
ネットワークの隠れた層におけるアクティビティは、トレーニング中に動的に生成されるゲートによって変調される。
本稿では,この手法が連続学習ベンチマークにおける破滅的な忘れを軽減できることを示す。
論文 参考訳(メタデータ) (2023-01-17T20:52:48Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Thalamus: a brain-inspired algorithm for biologically-plausible
continual learning and disentangled representations [0.0]
動物は絶えず変化する環境の中で成長し、時間構造を利用して因果表現を学ぶ。
本稿では,時間的文脈の内部表現を生成するために,推論時に最適化を利用する単純なアルゴリズムを提案する。
従来の重み付け更新を用いて一連のタスクをトレーニングしたネットワークが,タスクを動的に推論できることを示す。
次に、ウェイト更新と潜伏更新を交互に切り替えて、未ラベルのタスクストリーム内の非絡み合った表現を発見することができるタスク非依存のアルゴリズムであるTalamusに到達します。
論文 参考訳(メタデータ) (2022-05-24T01:29:21Z) - Learning to Modulate Random Weights: Neuromodulation-inspired Neural
Networks For Efficient Continual Learning [1.9580473532948401]
生体神経系における神経調節にインスパイアされた新しいニューラルネットワークアーキテクチャを導入する。
学習可能なパラメータが極めて少ないにもかかわらず,本手法はタスク毎の学習性能が極めて高いことを示す。
論文 参考訳(メタデータ) (2022-04-08T21:12:13Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Beneficial Perturbation Network for designing general adaptive
artificial intelligence systems [14.226973149346886]
我々は、動的状況に対応するために、ネットワーク外、タスク依存バイアスユニットを付加した新しいタイプのディープニューラルネットワークを提案する。
我々のアプローチはメモリ効率が高く、パラメータ効率が高く、多くのタスクに対応でき、様々なタスクやドメインで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-09-27T01:28:10Z) - Towards Efficient Processing and Learning with Spikes: New Approaches
for Multi-Spike Learning [59.249322621035056]
各種タスクにおける他のベースラインよりも優れた性能を示すための2つの新しいマルチスパイク学習ルールを提案する。
特徴検出タスクでは、教師なしSTDPの能力と、その制限を提示する能力を再検討する。
提案した学習ルールは,特定の制約を適用せずに,幅広い条件で確実にタスクを解くことができる。
論文 参考訳(メタデータ) (2020-05-02T06:41:20Z) - Exploring weight initialization, diversity of solutions, and degradation
in recurrent neural networks trained for temporal and decision-making tasks [0.0]
リカレントニューラルネットワーク(Recurrent Neural Networks, RNN)は、脳機能と構造をモデル化するために頻繁に使用される。
本研究では,時間変化刺激による時間・流れ制御タスクを行うために,小型完全接続型RNNを訓練した。
論文 参考訳(メタデータ) (2019-06-03T21:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。