論文の概要: Formation of cell assemblies with iterative winners-take-all computation
and excitation-inhibition balance
- arxiv url: http://arxiv.org/abs/2108.00706v1
- Date: Mon, 2 Aug 2021 08:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 03:30:41.795288
- Title: Formation of cell assemblies with iterative winners-take-all computation
and excitation-inhibition balance
- Title(参考訳): 反復受賞者による細胞集合体の形成-全計算と励起抑制バランス
- Authors: Viacheslav Osaulenko and Danylo Ulianych
- Abstract要約: 我々はkWTAの計算容易性を共有し、より柔軟でリッチなダイナミクスを持つ中間モデルを提案する。
ヘビアン的な学習規則を考察し,複数の安定化機構を持つ二分重の学習規則を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper targets the problem of encoding information into binary cell
assemblies. Spiking neural networks and k-winners-take-all models are two
common approaches, but the first is hard to use for information processing and
the second is too simple and lacks important features of the first. We present
an intermediate model that shares the computational ease of kWTA and has more
flexible and richer dynamics. It uses explicit inhibitory neurons to balance
and shape excitation through an iterative procedure. This leads to a recurrent
interaction between inhibitory and excitatory neurons that better adapts to the
input distribution and performs such computations as habituation,
decorrelation, and clustering. To show these, we investigate Hebbian-like
learning rules and propose a new learning rule for binary weights with multiple
stabilization mechanisms. Our source code is publicly available.
- Abstract(参考訳): 本稿では,情報をバイナリセルアセンブリにエンコードする問題を対象とする。
ニューラルネットワークとk-winners-take-allモデルをスパイクすることは2つの一般的なアプローチであるが、情報処理には1つは使いづらい。
我々はkWTAの計算容易性を共有し、より柔軟でリッチなダイナミクスを持つ中間モデルを提案する。
明示的な抑制ニューロンを使用して、反復的な手順で興奮をバランスさせ形作る。
これにより、刺激ニューロンと興奮ニューロンの繰り返し相互作用が生じ、入力分布に適応し、習慣化、デコリレーション、クラスタリングなどの計算を行う。
そこで本研究では,複数の安定化機構を有する2元重みに対する新しい学習規則を提案する。
ソースコードは公開されています。
関連論文リスト
- Integrating GNN and Neural ODEs for Estimating Non-Reciprocal Two-Body Interactions in Mixed-Species Collective Motion [0.0]
本稿では,観測軌道から基礎となる運動方程式を推定するための新しいディープラーニングフレームワークを提案する。
本フレームワークは,グラフニューラルネットワークとニューラルディファレンシャル方程式を統合し,二体相互作用の効果的な予測を可能にする。
論文 参考訳(メタデータ) (2024-05-26T09:47:17Z) - What to Do When Your Discrete Optimization Is the Size of a Neural
Network? [24.546550334179486]
ニューラルネットワークを用いた機械学習アプリケーションは、離散最適化問題を解くことを含む。
離散的な設定で使用される古典的なアプローチは、大きなニューラルネットワークに対してうまくスケールしない。
連続経路(CP)法は,前者およびモンテカルロ法(MC)法を純粋に表現し,後者を表現している。
論文 参考訳(メタデータ) (2024-02-15T21:57:43Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Understanding Neural Coding on Latent Manifolds by Sharing Features and
Dividing Ensembles [3.625425081454343]
システム神経科学は、単一ニューロンのチューニング曲線と集団活動の分析を特徴とする2つの相補的な神経データ観に依存している。
これらの2つの視点は、潜伏変数とニューラルアクティビティの関係を制約するニューラル潜伏変数モデルにおいてエレガントに結合する。
ニューラルチューニング曲線にまたがる機能共有を提案し、性能を大幅に改善し、より良い最適化を実現する。
論文 参考訳(メタデータ) (2022-10-06T18:37:49Z) - An Adaptive Contrastive Learning Model for Spike Sorting [12.043679000694258]
神経科学研究においては、個々のニューロンの活動を分離することが重要である。
大規模なシリコン技術の発展に伴い、スパイクの人工的解釈とラベル付けはますます非現実的になりつつある。
対照的な学習を通してスパイクから表現を学習する新しいモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-24T09:18:46Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z) - Separation of Memory and Processing in Dual Recurrent Neural Networks [0.0]
入力に接続する繰り返し層とフィードフォワード層を積み重ねるニューラルネットワークアーキテクチャを探索する。
繰り返し単位の活性化関数にノイズが導入されたとき、これらのニューロンは二項活性化状態に強制され、ネットワークは有限オートマトンのように振る舞う。
論文 参考訳(メタデータ) (2020-05-17T11:38:42Z) - Towards Efficient Processing and Learning with Spikes: New Approaches
for Multi-Spike Learning [59.249322621035056]
各種タスクにおける他のベースラインよりも優れた性能を示すための2つの新しいマルチスパイク学習ルールを提案する。
特徴検出タスクでは、教師なしSTDPの能力と、その制限を提示する能力を再検討する。
提案した学習ルールは,特定の制約を適用せずに,幅広い条件で確実にタスクを解くことができる。
論文 参考訳(メタデータ) (2020-05-02T06:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。