論文の概要: Exploring the Potential of Spiking Neural Networks in UWB Channel Estimation
- arxiv url: http://arxiv.org/abs/2512.23975v1
- Date: Tue, 30 Dec 2025 04:10:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.274207
- Title: Exploring the Potential of Spiking Neural Networks in UWB Channel Estimation
- Title(参考訳): UWBチャネル推定におけるスパイクニューラルネットワークの可能性を探る
- Authors: Youdong Zhang, Xu He, Xiaolin Meng,
- Abstract要約: 本稿では、チャネル推定のためのスパイキングニューラルネットワーク(SNN)の可能性について検討する。
我々は、80%の精度でテストできる完全に教師なしのSNNソリューションを開発した。
複雑な深層学習法と比較して、SNNの実装は本質的にニューロモルフィックな展開に適している。
- 参考スコア(独自算出の注目度): 7.52520480528178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although existing deep learning-based Ultra-Wide Band (UWB) channel estimation methods achieve high accuracy, their computational intensity clashes sharply with the resource constraints of low-cost edge devices. Motivated by this, this letter explores the potential of Spiking Neural Networks (SNNs) for this task and develops a fully unsupervised SNN solution. To enable a comprehensive performance analysis, we devise an extensive set of comparative strategies and evaluate them on a compelling public benchmark. Experimental results show that our unsupervised approach still attains 80% test accuracy, on par with several supervised deep learning-based strategies. Moreover, compared with complex deep learning methods, our SNN implementation is inherently suited to neuromorphic deployment and offers a drastic reduction in model complexity, bringing significant advantages for future neuromorphic practice.
- Abstract(参考訳): 既存の深層学習に基づくUWBチャネル推定手法は精度が高いが,その計算強度は低コストエッジデバイスの資源制約と激しく衝突する。
これを受けて、この手紙は、このタスクに対するスパイキングニューラルネットワーク(SNN)の可能性を探り、完全に教師なしのSNNソリューションを開発する。
総合的なパフォーマンス分析を可能にするため、比較戦略の広範なセットを考案し、説得力のある公開ベンチマークで評価する。
実験の結果,教師なしのアプローチは,教師なしの深層学習戦略と同等に80%の精度でテストできることがわかった。
さらに, 複雑な深層学習法と比較して, SNN の実装は本質的にニューロモルフィックな展開に適しており, モデル複雑度を大幅に低下させ, 将来的なニューロモルフィックの実践に大きなメリットをもたらす。
関連論文リスト
- Direct Learning-Based Deep Spiking Neural Networks: A Review [17.255056657521195]
スパイキングニューラルネットワーク(SNN)は、二分スパイク情報伝達機構を備えた有望な脳誘発計算モデルである。
本稿では,直接学習に基づく深部SNN研究について,主に精度向上法,効率改善法,時間的ダイナミクス利用法に分類する。
論文 参考訳(メタデータ) (2023-05-31T10:32:16Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。