論文の概要: SpikeSEE: An Energy-Efficient Dynamic Scenes Processing Framework for
Retinal Prostheses
- arxiv url: http://arxiv.org/abs/2209.07898v1
- Date: Fri, 16 Sep 2022 12:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:05:57.039206
- Title: SpikeSEE: An Energy-Efficient Dynamic Scenes Processing Framework for
Retinal Prostheses
- Title(参考訳): SpikeSEE: 網膜補綴のためのエネルギー効率の良い動的シーン処理フレームワーク
- Authors: Chuanqing Wang, Chaoming Fang, Yong Zou, Jie Yang, and Mohamad Sawan
- Abstract要約: 本研究では,スパイク表現符号化技術とバイオインスパイクされたスパイキングリカレントニューラルネットワーク(SRNN)モデルを組み合わせたエネルギー効率の高い動的シーン処理フレームワーク(SpikeSEE)を提案する。
提案したSpikeSEEは,よりエネルギー消費の少ないガングリオン細胞の応答をより正確に予測する。
- 参考スコア(独自算出の注目度): 3.794154439461156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent and low-power retinal prostheses are highly demanded in this era,
where wearable and implantable devices are used for numerous healthcare
applications. In this paper, we propose an energy-efficient dynamic scenes
processing framework (SpikeSEE) that combines a spike representation encoding
technique and a bio-inspired spiking recurrent neural network (SRNN) model to
achieve intelligent processing and extreme low-power computation for retinal
prostheses. The spike representation encoding technique could interpret dynamic
scenes with sparse spike trains, decreasing the data volume. The SRNN model,
inspired by the human retina special structure and spike processing method, is
adopted to predict the response of ganglion cells to dynamic scenes.
Experimental results show that the Pearson correlation coefficient of the
proposed SRNN model achieves 0.93, which outperforms the state of the art
processing framework for retinal prostheses. Thanks to the spike representation
and SRNN processing, the model can extract visual features in a
multiplication-free fashion. The framework achieves 12 times power reduction
compared with the convolutional recurrent neural network (CRNN)
processing-based framework. Our proposed SpikeSEE predicts the response of
ganglion cells more accurately with lower energy consumption, which alleviates
the precision and power issues of retinal prostheses and provides a potential
solution for wearable or implantable prostheses.
- Abstract(参考訳): インテリジェントで低消費電力の人工網膜は、多くの医療アプリケーションにウェアラブルとインプラント可能なデバイスが使われているこの時代に非常に要求されている。
本稿では,スパイク表現符号化技術とバイオインスパイク・スパイク・リカレント・ニューラルネットワーク(srnn)モデルを組み合わせたエネルギー効率の高い動的シーン処理フレームワーク(spikesee)を提案する。
スパイク表現符号化技術は、ダイナミックシーンをスパーススパイクトレインで解釈し、データ量を削減できる。
ヒト網膜の特殊構造とスパイクプロセッシング法に触発されたsrnnモデルは、神経節細胞の動的シーンへの応答を予測するために用いられる。
実験の結果, SRNNモデルのピアソン相関係数は0.93であり, 網膜補綴術の術式処理フレームワークの状態よりも優れていた。
スパイク表現とSRNN処理のおかげで、モデルは乗算のない方法で視覚的特徴を抽出することができる。
このフレームワークは畳み込みリカレントニューラルネットワーク(crnn)処理ベースのフレームワークに比べて12倍の電力削減を達成している。
提案したSpikeSEEは, 神経節細胞の反応を低エネルギーでより正確に予測し, 網膜補綴の精度とパワーの問題を軽減するとともに, ウェアラブルや移植可能な補綴物の潜在的な解決策を提供する。
関連論文リスト
- Stepwise Weighted Spike Coding for Deep Spiking Neural Networks [7.524721345903027]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンのスパイキング動作を模倣しようと試みている。
本稿では,スパイクにおける情報のエンコーディングを強化するために,SWS(Stepwise Weighted Spike)符号化方式を提案する。
このアプローチは、ニューラルネットワークの各ステップにおけるスパイクの重要性を重み付け、高い性能と低エネルギー消費を達成することでスパイクを圧縮する。
論文 参考訳(メタデータ) (2024-08-30T12:39:25Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Evolving Connectivity for Recurrent Spiking Neural Networks [8.80300633999542]
リカレントニューラルネットワーク(RSNN)は、人工知能の進歩に大きな可能性を秘めている。
本稿では、RSNNをトレーニングするための推論のみの手法である、進化的接続性(EC)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-28T07:08:25Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - An Adversarial Active Sampling-based Data Augmentation Framework for
Manufacturable Chip Design [55.62660894625669]
リソグラフィーモデリングは、チップ設計マスクが製造可能であることを保証するため、チップ設計において重要な問題である。
機械学習の最近の進歩は、時間を要するリソグラフィーシミュレーションをディープニューラルネットワークに置き換えるための代替ソリューションを提供している。
本稿では,限られたデータのジレンマを解消し,機械学習モデルの性能を向上させるために,データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-27T20:53:39Z) - Low-Light Image Restoration Based on Retina Model using Neural Networks [0.0]
提案したニューラルネットワークモデルは、従来の信号処理モデルと対照的に計算オーバーヘッドのコストを削減し、主観的観点から複雑なディープラーニングモデルに匹敵する結果を生成する。
この研究は、ニューラルネットワークを用いて網膜ニューロンの機能を直接シミュレートするために、最適パラメーターを手動で探すことを避けるだけでなく、特定の神経生物学組織のために対応する人工バージョンを構築する方法を構築することも示している。
論文 参考訳(メタデータ) (2022-10-04T08:14:49Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Towards Lightweight Controllable Audio Synthesis with Conditional
Implicit Neural Representations [10.484851004093919]
入射神経表現(英語: Implicit Neural representations、INR)は、低次元関数を近似するニューラルネットワークである。
本研究では、音声合成のための生成フレームワークの軽量バックボーンとして、CINR(Conditional Implicit Neural Representations)の可能性に光を当てた。
論文 参考訳(メタデータ) (2021-11-14T13:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。