論文の概要: Bio-inspired visual attention for silicon retinas based on spiking
neural networks applied to pattern classification
- arxiv url: http://arxiv.org/abs/2105.14753v1
- Date: Mon, 31 May 2021 07:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 04:31:08.504889
- Title: Bio-inspired visual attention for silicon retinas based on spiking
neural networks applied to pattern classification
- Title(参考訳): スパイキングニューラルネットワークを用いたシリコン網膜のバイオインスパイア視覚注意のパターン分類への応用
- Authors: Am\'elie Gruel and Jean Martinet
- Abstract要約: Spiking Neural Networks(SNN)は、従来の人工ネットワークよりも生物学に近い、非同期タイプの人工ニューラルネットワークである。
本稿では,SNNを用いたイベントビデオ分類のケーススタディについて紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual attention can be defined as the behavioral and cognitive process of
selectively focusing on a discrete aspect of sensory cues while disregarding
other perceivable information. This biological mechanism, more specifically
saliency detection, has long been used in multimedia indexing to drive the
analysis only on relevant parts of images or videos for further processing.
The recent advent of silicon retinas (or event cameras -- sensors that
measure pixel-wise changes in brightness and output asynchronous events
accordingly) raises the question of how to adapt attention and saliency to the
unconventional type of such sensors' output. Silicon retina aims to reproduce
the biological retina behaviour. In that respect, they produce punctual events
in time that can be construed as neural spikes and interpreted as such by a
neural network.
In particular, Spiking Neural Networks (SNNs) represent an asynchronous type
of artificial neural network closer to biology than traditional artificial
networks, mainly because they seek to mimic the dynamics of neural membrane and
action potentials over time. SNNs receive and process information in the form
of spike trains. Therefore, they make for a suitable candidate for the
efficient processing and classification of incoming event patterns measured by
silicon retinas. In this paper, we review the biological background behind the
attentional mechanism, and introduce a case study of event videos
classification with SNNs, using a biology-grounded low-level computational
attention mechanism, with interesting preliminary results.
- Abstract(参考訳): 視覚的注意は、知覚手がかりの離散的な側面に選択的に焦点を合わせ、他の知覚可能な情報を無視する行動的および認知的プロセスとして定義することができる。
この生物学的メカニズム、特に塩分検出は、マルチメディアインデックス化において、画像やビデオの関連部分にのみ分析を駆り立てて、さらなる処理を行うために長い間使われてきた。
最近のシリコン網膜(またはイベントカメラ)の出現は、このようなセンサーの出力の非伝統的なタイプに対して、どのように注意と礼儀正しく適応するかという疑問を提起している。
シリコン網膜は生物学的網膜の挙動を再現することを目指している。
その点において、彼らは時間的事象を生成し、それは神経スパイクと解釈され、ニューラルネットワークによって解釈される。
特に、スパイキングニューラルネットワーク(SNN)は、従来の人工ネットワークよりも生物学に近い、非同期タイプの人工ニューラルネットワークを表現している。
SNNはスパイク列車の形で情報を受信し処理する。
したがって、シリコン網膜で測定される入射イベントパターンの効率的な処理と分類に適した候補となる。
本稿では,注意機構の背後にある生物学的背景を概観し,生物基盤の低レベル計算的注意機構を用いたsnsを用いたイベントビデオ分類のケーススタディと興味深い予備結果を紹介する。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Deep recurrent spiking neural networks capture both static and dynamic
representations of the visual cortex under movie stimuli [19.166875407309263]
実世界では、生体視覚系が受ける視覚刺激は主に静的ではなく動的である。
本研究では,映画刺激下でのマウス視覚野のモデル化に深部反復SNNを適用した。
これらのネットワークは静的表現と動的表現の両方をキャプチャする能力がある。
論文 参考訳(メタデータ) (2023-06-02T08:25:58Z) - A Neural Network Based Automated IFT-20 Sensory Neuron Classifier for
Caenorhabditis elegans [0.0]
組織間比較は、機能ネットワークの全脳分析を含む幅広い研究を可能にする。
線虫 Caenorhabditis elegans における単細胞分解能のパンニューロンイメージングの最近の進歩は、すべての到達範囲におけるニューロンの同定、追跡、活動監視をもたらした。
高い精度で神経細胞を同定する主な障壁は、成人のC. elegansでは神経細胞の体の位置がステレオタイプ化されていないことである。
単色蛍光画像のみを用いた別の神経細胞識別手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T00:17:26Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Efficient visual object representation using a biologically plausible
spike-latency code and winner-take-all inhibition [0.0]
スパイキングニューラルネットワーク(SNN)は、物体認識システムの効率性と生物学的妥当性を向上させる可能性がある。
本稿では、スパイクレイテンシ符号化とWTA-オール阻害(WTA-I)を用いて視覚刺激を効率的に表現するSNNモデルを提案する。
我々は、150個のスパイクニューロンからなるネットワークが、40個のスパイクを持つオブジェクトを効率的に表現できることを実証した。
論文 参考訳(メタデータ) (2022-05-20T17:48:02Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - The Butterfly Effect in Primary Visual Cortex [5.954654488330137]
連続結合ニューラルネットワーク(CCNN)と呼ばれる新しいニューラルネットワークを提案する。
数値計算の結果, CCNNモデルは直流刺激下での周期的挙動を示し, 交流刺激下でのカオス的挙動を示すことがわかった。
画像分割実験の結果、CCNNモデルは視覚野ニューラルネットの最先端モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-04-15T06:04:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。