論文の概要: SpikeSEE: An Energy-Efficient Dynamic Scenes Processing Framework for
Retinal Prostheses
- arxiv url: http://arxiv.org/abs/2209.07898v1
- Date: Fri, 16 Sep 2022 12:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:05:57.039206
- Title: SpikeSEE: An Energy-Efficient Dynamic Scenes Processing Framework for
Retinal Prostheses
- Title(参考訳): SpikeSEE: 網膜補綴のためのエネルギー効率の良い動的シーン処理フレームワーク
- Authors: Chuanqing Wang, Chaoming Fang, Yong Zou, Jie Yang, and Mohamad Sawan
- Abstract要約: 本研究では,スパイク表現符号化技術とバイオインスパイクされたスパイキングリカレントニューラルネットワーク(SRNN)モデルを組み合わせたエネルギー効率の高い動的シーン処理フレームワーク(SpikeSEE)を提案する。
提案したSpikeSEEは,よりエネルギー消費の少ないガングリオン細胞の応答をより正確に予測する。
- 参考スコア(独自算出の注目度): 3.794154439461156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent and low-power retinal prostheses are highly demanded in this era,
where wearable and implantable devices are used for numerous healthcare
applications. In this paper, we propose an energy-efficient dynamic scenes
processing framework (SpikeSEE) that combines a spike representation encoding
technique and a bio-inspired spiking recurrent neural network (SRNN) model to
achieve intelligent processing and extreme low-power computation for retinal
prostheses. The spike representation encoding technique could interpret dynamic
scenes with sparse spike trains, decreasing the data volume. The SRNN model,
inspired by the human retina special structure and spike processing method, is
adopted to predict the response of ganglion cells to dynamic scenes.
Experimental results show that the Pearson correlation coefficient of the
proposed SRNN model achieves 0.93, which outperforms the state of the art
processing framework for retinal prostheses. Thanks to the spike representation
and SRNN processing, the model can extract visual features in a
multiplication-free fashion. The framework achieves 12 times power reduction
compared with the convolutional recurrent neural network (CRNN)
processing-based framework. Our proposed SpikeSEE predicts the response of
ganglion cells more accurately with lower energy consumption, which alleviates
the precision and power issues of retinal prostheses and provides a potential
solution for wearable or implantable prostheses.
- Abstract(参考訳): インテリジェントで低消費電力の人工網膜は、多くの医療アプリケーションにウェアラブルとインプラント可能なデバイスが使われているこの時代に非常に要求されている。
本稿では,スパイク表現符号化技術とバイオインスパイク・スパイク・リカレント・ニューラルネットワーク(srnn)モデルを組み合わせたエネルギー効率の高い動的シーン処理フレームワーク(spikesee)を提案する。
スパイク表現符号化技術は、ダイナミックシーンをスパーススパイクトレインで解釈し、データ量を削減できる。
ヒト網膜の特殊構造とスパイクプロセッシング法に触発されたsrnnモデルは、神経節細胞の動的シーンへの応答を予測するために用いられる。
実験の結果, SRNNモデルのピアソン相関係数は0.93であり, 網膜補綴術の術式処理フレームワークの状態よりも優れていた。
スパイク表現とSRNN処理のおかげで、モデルは乗算のない方法で視覚的特徴を抽出することができる。
このフレームワークは畳み込みリカレントニューラルネットワーク(crnn)処理ベースのフレームワークに比べて12倍の電力削減を達成している。
提案したSpikeSEEは, 神経節細胞の反応を低エネルギーでより正確に予測し, 網膜補綴の精度とパワーの問題を軽減するとともに, ウェアラブルや移植可能な補綴物の潜在的な解決策を提供する。
関連論文リスト
- Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - A Tunable Despeckling Neural Network Stabilized via Diffusion Equation [15.996302571895045]
ニューラルネットワークの実際のデータへの適応性を判断するための基準として、Adrialversa攻撃を用いることができる。
本稿では,ニューラルネットワークブロックと拡散正則性ブロックを1つのネットワークにアンロールしてエンドツーエンドのトレーニングを行う,チューニング可能な正規化ニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T17:08:43Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Evolving Connectivity for Recurrent Spiking Neural Networks [8.80300633999542]
リカレントニューラルネットワーク(RSNN)は、人工知能の進歩に大きな可能性を秘めている。
本稿では、RSNNをトレーニングするための推論のみの手法である、進化的接続性(EC)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-28T07:08:25Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - Low-Light Image Restoration Based on Retina Model using Neural Networks [0.0]
提案したニューラルネットワークモデルは、従来の信号処理モデルと対照的に計算オーバーヘッドのコストを削減し、主観的観点から複雑なディープラーニングモデルに匹敵する結果を生成する。
この研究は、ニューラルネットワークを用いて網膜ニューロンの機能を直接シミュレートするために、最適パラメーターを手動で探すことを避けるだけでなく、特定の神経生物学組織のために対応する人工バージョンを構築する方法を構築することも示している。
論文 参考訳(メタデータ) (2022-10-04T08:14:49Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Towards Lightweight Controllable Audio Synthesis with Conditional
Implicit Neural Representations [10.484851004093919]
入射神経表現(英語: Implicit Neural representations、INR)は、低次元関数を近似するニューラルネットワークである。
本研究では、音声合成のための生成フレームワークの軽量バックボーンとして、CINR(Conditional Implicit Neural Representations)の可能性に光を当てた。
論文 参考訳(メタデータ) (2021-11-14T13:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。