論文の概要: Context-sensitive neocortical neurons transform the effectiveness and
efficiency of neural information processing
- arxiv url: http://arxiv.org/abs/2207.07338v1
- Date: Fri, 15 Jul 2022 08:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 13:01:13.037442
- Title: Context-sensitive neocortical neurons transform the effectiveness and
efficiency of neural information processing
- Title(参考訳): 文脈感応性新皮質ニューロンは神経情報処理の有効性と効率を変換する
- Authors: Ahsan Adeel, Mario Franco, Mohsin Raza, Khubaib Ahmed
- Abstract要約: この形態のニューラル情報処理の処理能力と学習能力は、哺乳類のネオコルテックスの能力によく適合していることを示す。
具体的には、そのようなローカルプロセッサで構成されるネットワークが、競合する情報のより高いレベルへの送信を制限することを示す。
このメカニズムは、最も有効なディープニューラルネットワークよりもはるかに効果的で効率的であることが示されているため、脳の神秘的な省エネメカニズムを理解するためのステップチェンジを提供する。
- 参考スコア(独自算出の注目度): 0.783788180051711
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There is ample neurobiological evidence that context-sensitive neocortical
neurons use their apical inputs as context to amplify the transmission of
coherent feedforward (FF) inputs. However, it has not been demonstrated until
now how this known mechanism can provide useful neural computation. Here we
show for the first time that the processing and learning capabilities of this
form of neural information processing are well-matched to the abilities of
mammalian neocortex. Specifically, we show that a network composed of such
local processors restricts the transmission of conflicting information to
higher levels and greatly reduces the amount of activity required to process
large amounts of heterogeneous real-world data e.g., when processing
audiovisual speech, these local processors use seen lip movements to
selectively amplify FF transmission of the auditory information that those
movements generate and vice versa. As this mechanism is shown to be far more
effective and efficient than the best available forms of deep neural nets, it
offers a step-change in understanding the brain's mysterious energy-saving
mechanism and inspires advances in designing enhanced forms of biologically
plausible machine learning algorithms.
- Abstract(参考訳): 文脈に敏感な新皮質ニューロンは、コヒーレントフィードフォワード(FF)入力の伝達を増幅するための文脈として、その尖頭入力を使用するという神経生物学的証拠は豊富である。
しかし、この既知のメカニズムがどのように有用な神経計算を提供できるかは、これまで実証されていない。
ここでは,この形態の神経情報処理の処理能力と学習能力が哺乳類新皮質の能力とよく一致することを示す。
具体的には、このようなローカルプロセッサで構成されたネットワークは、競合する情報の高レベルへの送信を制限し、例えば、音声視覚音声を処理する際、これらのローカルプロセッサは、その動きが生成する聴覚情報のFF送信を選択的に増幅するために唇の動きを利用するなど、大量の異種実世界のデータを処理するために必要なアクティビティを大幅に削減することを示す。
このメカニズムは、最善のディープニューラルネットよりも効率的で効率的であることが示されているため、脳の謎の省エネメカニズムを理解するためのステップチェンジを提供し、生物学的に妥当な機械学習アルゴリズムの強化された形態の設計の進展を刺激する。
関連論文リスト
- A frugal Spiking Neural Network for unsupervised classification of continuous multivariate temporal data [0.0]
スパイキングニューラルネットワーク(SNN)は神経型であり、進化する膜電位を持つより生物学的に可塑性なニューロンを使用する。
本稿では,連続データにおける多変量時間パターンの完全教師なし識別と分類のために設計されたFragal Single-layer SNNを紹介する。
論文 参考訳(メタデータ) (2024-08-08T08:15:51Z) - Neuromorphic Event-Driven Semantic Communication in Microgrids [5.817656520396958]
本稿では,各ノードにスパイキングニューラルネットワーク(SNN)を用いて通信機能を埋め込むニューロモルフィック学習を提案する。
スパイキング信号で作動する従来のニューロモルフィックセンサとは対照的に、イベント駆動選択的プロセスを用いてスパースデータを収集し、SNNの訓練を行う。
論文 参考訳(メタデータ) (2024-02-28T15:11:02Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Impact of spiking neurons leakages and network recurrences on
event-based spatio-temporal pattern recognition [0.0]
ニューロモルフィックハードウェアとイベントベースのセンサーを組み合わせたスパイクニューラルネットワークは、エッジにおける低レイテンシと低パワー推論への関心が高まっている。
スパイキングニューロンにおけるシナプスおよび膜漏れの影響について検討する。
論文 参考訳(メタデータ) (2022-11-14T21:34:02Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Learning in Feedforward Neural Networks Accelerated by Transfer Entropy [0.0]
転送エントロピー(te)は当初、事象(時系列)間の統計的コヒーレンスを定量化する情報伝達尺度として導入された。
提案手法は,フィードフォワードニューラルネットワークのノード間の情報伝達を解析するための情報理論的手法である。
本稿では,TEフィードバック接続を用いたバックプロパゲーション型トレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-29T19:07:07Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Information contraction in noisy binary neural networks and its
implications [11.742803725197506]
我々は、各ニューロンが不正な出力を発生させる確率がゼロでない、ノイズの多いバイナリニューラルネットワークを考察する。
私たちの重要な発見は、ノイズの多いニューラルネットワークで必要なニューロンの数が少ないことです。
本稿では,情報理論のレンズを通して,ノイズの多い情報処理システムに対する新たな理解を提供する。
論文 参考訳(メタデータ) (2021-01-28T00:01:45Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。