論文の概要: Neural information coding for efficient spike-based image denoising
- arxiv url: http://arxiv.org/abs/2305.11898v1
- Date: Mon, 15 May 2023 09:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-28 05:18:33.011431
- Title: Neural information coding for efficient spike-based image denoising
- Title(参考訳): 効率的なスパイクベース画像復調のためのニューラル情報符号化
- Authors: Andrea Castagnetti, Alain Pegatoquet, Beno\^it Miramond
- Abstract要約: 本研究では,ガウス聴覚のためのスパイキングニューラルネットワーク(SNN)について検討する。
本稿では,Leaky Integrate and Fire(LIF)ニューロンによる情報変換処理の形式的解析を提案する。
我々は、その性能を古典的なレートコーディング機構と比較する。
その結果, LIFニューロンを用いたSNNは, 計算コストを抑えつつ, 競争性能を向上できることがわかった。
- 参考スコア(独自算出の注目度): 0.5156484100374058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Deep Convolutional Neural Networks (DCNNs) have outreached
the performance of classical algorithms for image restoration tasks. However
most of these methods are not suited for computational efficiency and are
therefore too expensive to be executed on embedded and mobile devices. In this
work we investigate Spiking Neural Networks (SNNs) for Gaussian denoising, with
the goal of approaching the performance of conventional DCNN while reducing the
computational load. We propose a formal analysis of the information conversion
processing carried out by the Leaky Integrate and Fire (LIF) neurons and we
compare its performance with the classical rate-coding mechanism. The neural
coding schemes are then evaluated through experiments in terms of denoising
performance and computation efficiency for a state-of-the-art deep
convolutional neural network. Our results show that SNNs with LIF neurons can
provide competitive denoising performance but at a reduced computational cost.
- Abstract(参考訳): 近年,Deep Convolutional Neural Networks (DCNN) は,画像復元作業における古典的アルゴリズムの性能を上回っている。
しかし、これらの手法の多くは計算効率には適していないため、組み込みデバイスやモバイルデバイスで実行するには高価すぎる。
本研究では,従来のdcnnの性能に接近しながら計算負荷を低減し,ガウス音化のためのスパイキングニューラルネットワーク(snn)について検討する。
本稿では,Leaky Integrate and Fire(LIF)ニューロンによる情報変換処理の形式的解析を行い,その性能を古典的なレート符号化機構と比較する。
ニューラルコーディングスキームは、最先端の深層畳み込みニューラルネットワークの性能と計算効率を劣化させる実験によって評価される。
その結果, LIFニューロンを用いたSNNは, 計算コストを抑えつつ, 競争性能を向上できることがわかった。
関連論文リスト
- Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Time-independent Spiking Neuron via Membrane Potential Estimation for Efficient Spiking Neural Networks [4.142699381024752]
スパイキングニューラルネットワーク(SNN)の計算的非効率性は、主に膜電位の逐次更新によるものである。
スパイキングニューロンの並列計算法である膜電位推定並列スパイキングニューロン(MPE-PSN)を提案する。
提案手法では,特に高次ニューロン密度条件下での計算効率の向上が期待できる。
論文 参考訳(メタデータ) (2024-09-08T05:14:22Z) - Canonic Signed Spike Coding for Efficient Spiking Neural Networks [7.524721345903027]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンのスパイキング行動を模倣し、ニューラルコンピューティングと人工知能の進歩において重要な役割を果たすと期待されている。
ANN(Artificial Neural Networks)からSNN(SNN)への変換は最も広く使われているトレーニング手法であり、その結果のSNNが大規模データセット上でANNと同等に動作することを保証する。
現在のスキームは、通常、スパイクカウントまたはタイピングのタイミングを使用しており、これはANNのアクティベーションと線形に関連しており、必要な時間ステップの数を増やす。
我々は新しいCanononic Signed Spike (CSS) 符号化を提案する。
論文 参考訳(メタデータ) (2024-08-30T12:39:25Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Convolutional Neural Generative Coding: Scaling Predictive Coding to
Natural Images [79.07468367923619]
畳み込み型神経生成符号化(Conv-NGC)を開発した。
我々は、潜伏状態マップを段階的に洗練する柔軟な神経生物学的動機付けアルゴリズムを実装した。
本研究は,脳にインスパイアされたニューラル・システムによる再建と画像復調の課題に対する効果について検討する。
論文 参考訳(メタデータ) (2022-11-22T06:42:41Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Image denoising by Super Neurons: Why go deep? [31.087153520130112]
合成画像と実世界画像の両方におけるスーパーニューロンの利用について検討する。
以上の結果から,同じ幅と深さで,超ニューロンを持つSelf-ONNsはデノナイジング性能を著しく向上させることが明らかとなった。
論文 参考訳(メタデータ) (2021-11-29T20:52:10Z) - Dense-Sparse Deep Convolutional Neural Networks Training for Image Denoising [0.6215404942415159]
畳み込みニューラルネットワークのような深層学習手法は、画像認知の領域で注目されている。
ディープラーニング畳み込み畳み込みニューラルネットワークは、バッチ正規化と残留学習の正規化メソッドを追加して、多くのフィードフォワード畳み込み層を使用して、トレーニングを高速化し、denoisingパフォーマンスを大幅に改善する。
本稿では,高密度スパース・デンス・ネットワークのトレーニング手法を深層化畳み込みニューラルネットワークに適用することにより,学習可能なパラメータを著しく削減できることを示す。
論文 参考訳(メタデータ) (2021-07-10T15:14:19Z) - Operational vs Convolutional Neural Networks for Image Denoising [25.838282412957675]
畳み込みニューラルネットワーク(CNN)は近年,適応学習能力により画像デノナイズ技術として好まれている。
データ変換のコアに新たな非線形性を埋め込むための柔軟性を向上するヘテロジニアスネットワークモデルを提案する。
ONNとCNNの比較評価は、線形演算子に富んだONNが等価かつよく知られた深層構成のCNNに対して優れたノイズ発生性能を達成できるという決定的な証拠が得られる。
論文 参考訳(メタデータ) (2020-09-01T12:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。