論文の概要: Spiking Vocos: An Energy-Efficient Neural Vocoder
- arxiv url: http://arxiv.org/abs/2509.13049v1
- Date: Tue, 16 Sep 2025 13:09:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.099207
- Title: Spiking Vocos: An Energy-Efficient Neural Vocoder
- Title(参考訳): Spiking Vocos: エネルギー効率の良いニューラルボーコーダ
- Authors: Yukun Chen, Zhaoxi Mu, Andong Li, Peilin Li, Xinyu Yang,
- Abstract要約: スパイキング・ヴォコス(Spike Vocos)は、超低エネルギー消費のニューラルボコーダである。
SNNにおける情報ボトルネックを軽減するため、Spike ConvNeXtモジュールを設計する。
テンポラルシフトモジュールも統合され、時間次元にわたって情報を融合するモデルの能力が強化される。
- 参考スコア(独自算出の注目度): 20.806942393453145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the remarkable progress in the synthesis speed and fidelity of neural vocoders, their high energy consumption remains a critical barrier to practical deployment on computationally restricted edge devices. Spiking Neural Networks (SNNs), widely recognized for their high energy efficiency due to their event-driven nature, offer a promising solution for low-resource scenarios. In this paper, we propose Spiking Vocos, a novel spiking neural vocoder with ultra-low energy consumption, built upon the efficient Vocos framework. To mitigate the inherent information bottleneck in SNNs, we design a Spiking ConvNeXt module to reduce Multiply-Accumulate (MAC) operations and incorporate an amplitude shortcut path to preserve crucial signal dynamics. Furthermore, to bridge the performance gap with its Artificial Neural Network (ANN) counterpart, we introduce a self-architectural distillation strategy to effectively transfer knowledge. A lightweight Temporal Shift Module is also integrated to enhance the model's ability to fuse information across the temporal dimension with negligible computational overhead. Experiments demonstrate that our model achieves performance comparable to its ANN counterpart, with UTMOS and PESQ scores of 3.74 and 3.45 respectively, while consuming only 14.7% of the energy. The source code is available at https://github.com/pymaster17/Spiking-Vocos.
- Abstract(参考訳): ニューラルボコーダの合成速度と忠実度は著しく進歩しているにもかかわらず、その高エネルギー消費は計算に制限されたエッジデバイスへの実用的展開にとって重要な障壁である。
Spiking Neural Networks(SNN)は、イベント駆動性によって高エネルギー効率が広く認識されており、低リソースシナリオに対して有望なソリューションを提供する。
本稿では,効率的なVocosフレームワーク上に構築された,超低消費電力のスパイキング型ニューラルボコーダであるSpking Vocosを提案する。
本研究では,SNNにおける固有情報ボトルネックを軽減するために,Multiply-Accumulate (MAC) 演算を低減し,重要な信号ダイナミクスを維持するために振幅ショートカット経路を組み込むスパイキングコンブネックスモジュールを設計する。
さらに,ANN(Artificial Neural Network)と性能ギャップを埋めるために,知識を効果的に伝達するための自己構造蒸留戦略を導入する。
軽量のテンポラルシフトモジュールも統合され、時間次元の情報を無視可能な計算オーバーヘッドで融合する能力を高めることができる。
UTMOSとPSSQのスコアはそれぞれ3.74と3.45であり、エネルギーの14.7%しか消費していない。
ソースコードはhttps://github.com/pymaster17/Spiking-Vocos.comで入手できる。
関連論文リスト
- SpikeX: Exploring Accelerator Architecture and Network-Hardware Co-Optimization for Sparse Spiking Neural Networks [3.758294848902233]
本研究では,非構造的空間性から生じる課題と機会に対処するため,Systolic-array SNNアクセラレーターアーキテクチャであるSpikeXを提案する。
SpikeXはメモリアクセスを減らし、データ共有と時間と空間にまたがる計算を対象とするハードウェア利用を増加させる。
論文 参考訳(メタデータ) (2025-05-18T08:07:44Z) - TS-SNN: Temporal Shift Module for Spiking Neural Networks [12.35332483263129]
スパイキングニューラルネットワーク(SNN)はその生物学的妥当性とエネルギー効率が認められている。
スパイキングニューラルネットワーク(TS-SNN)のためのテンポラルシフトモジュールを導入し,過去,現在,将来のスパイク機能を統合するために,新しいテンポラルシフトモジュール(TS)を組み込んだ。
TS-SNNは、CIFAR-10 (96.72%)、CIFAR-100 (80.28%)、ImageNet (70.61%)のようなベンチマークで、低エネルギー消費を維持しながら、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-07T06:34:34Z) - Accelerating Linear Recurrent Neural Networks for the Edge with Unstructured Sparsity [39.483346492111515]
線形リカレントニューラルネットワークは、推論中に一定のメモリ使用量と時間毎の時間を含む強力な長距離シーケンスモデリングを可能にする。
非構造化空間は、互換性のあるハードウェアプラットフォームによって加速されるときに、計算とメモリの要求を大幅に削減できる魅力的なソリューションを提供する。
非常に疎い線形RNNは、高密度ベースラインよりも高い効率と性能のトレードオフを一貫して達成している。
論文 参考訳(メタデータ) (2025-02-03T13:09:21Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - sVAD: A Robust, Low-Power, and Light-Weight Voice Activity Detection
with Spiking Neural Networks [51.516451451719654]
スパイキングニューラルネットワーク(SNN)は生物学的に妥当で、電力効率が高いことが知られている。
本稿では sVAD と呼ばれる新しい SNN ベースの音声活動検出モデルを提案する。
SincNetと1D畳み込みによる効果的な聴覚特徴表現を提供し、アテンション機構による雑音の堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-09T02:55:44Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。