論文の概要: mlx-snn: Spiking Neural Networks on Apple Silicon via MLX
- arxiv url: http://arxiv.org/abs/2603.03529v1
- Date: Tue, 03 Mar 2026 21:25:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.093668
- Title: mlx-snn: Spiking Neural Networks on Apple Silicon via MLX
- Title(参考訳): mlx-snn: MLX経由でApple Siliconでニューラルネットワークをスパイする
- Authors: Jiahao Qin,
- Abstract要約: AppleのMLXフレームワーク上に構築された最初のスパイクニューラルネットワーク(SNN)ライブラリであるmlx-snnを紹介する。
mlx-snnは6つのニューロンモデル、4つの代理勾配関数、4つのスパイク符号化方法、完全なバックプロパゲーション・スルータイムトレーニングパイプラインを提供する。
mlx-snnはMITライセンス下でオープンソースで、PyPIで利用可能である。
- 参考スコア(独自算出の注目度): 1.1597621848542221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce mlx-snn, the first spiking neural network (SNN) library built natively on Apple's MLX framework. As SNN research grows rapidly, all major libraries -- snnTorch, Norse, SpikingJelly, Lava -- target PyTorch or custom backends, leaving Apple Silicon users without a native option. mlx-snn provides six neuron models (LIF, IF, Izhikevich, Adaptive LIF, Synaptic, Alpha), four surrogate gradient functions, four spike encoding methods (including an EEG-specific encoder), and a complete backpropagation-through-time training pipeline. The library leverages MLX's unified memory architecture, lazy evaluation, and composable function transforms (mx.grad, mx.compile) to enable efficient SNN research on Apple Silicon hardware. We validate mlx-snn on MNIST digit classification across five hyperparameter configurations and three backends, achieving up to 97.28% accuracy with 2.0--2.5 times faster training and 3--10 times lower GPU memory than snnTorch on the same M3 Max hardware. mlx-snn is open-source under the MIT license and available on PyPI. https://github.com/D-ST-Sword/mlx-snn
- Abstract(参考訳): 我々はAppleのMLXフレームワークをネイティブに構築した最初のスパイクニューラルネットワーク(SNN)ライブラリであるmlx-snnを紹介した。
SNNの研究が急速に成長するにつれて、主要なライブラリ(snnTorch、Norse、SpikeJelly、Lava)はすべてPyTorchまたはカスタムバックエンドをターゲットにしており、Apple Siliconのユーザはネイティブオプションなしでいる。
mlx-snnは6つのニューロンモデル(LIF、IF、Izhikevich、Adaptive LIF、Synaptic、Alpha)、4つのサロゲート勾配関数、4つのスパイク符号化方法(EEG固有のエンコーダを含む)、完全なバックプロパゲーションスルートレーニングパイプラインを提供する。
このライブラリはMLXの統一メモリアーキテクチャ、遅延評価、構成可能な関数変換(mx.grad、mx.compile)を活用して、Apple Siliconハードウェアの効率的なSNN研究を可能にする。
我々は、5つのハイパーパラメータ構成と3つのバックエンドにまたがるMNIST桁分類のmlx-snnを検証し、最大97.28%の精度で2.0-2.5倍の高速トレーニングを実現し、同じM3 MaxハードウェアでsnnTorchよりも3-10倍低いGPUメモリを実現した。
mlx-snnはMITライセンス下でオープンソースで、PyPIで利用可能である。
https://github.com/D-ST-Sword/mlx-snn
関連論文リスト
- mlx-vis: GPU-Accelerated Dimensionality Reduction and Visualization on Apple Silicon [5.943245848892104]
mlx-visは6つの次元削減メソッドとk-nearestの隣のグラフをMLXで完全に実装したPythonライブラリである。
このライブラリは UMAP, t-SNE, PaCMAP, TriMap, DREAMS, CNE, NNDescent などを提供し,それぞれが fit_transform インターフェースを統一して Metal GPU 上で実行される。
70,000点のFashion-MNISTでは、すべてのメソッドが2.1-3.8秒で完全に埋め込み、800フレームのアニメーションをM3 Ultraで1.4秒でレンダリングする。
論文 参考訳(メタデータ) (2026-03-04T13:16:48Z) - Native LLM and MLLM Inference at Scale on Apple Silicon [0.8122270502556375]
MLX をネイティブに構築した Apple Silicon 上で,効率的な LLM と MLLM 推論のためのフレームワーク vllm-mlx を提案する。
テキストモデルでは、Qwen3-0.6BからNemotron-30Bまでの範囲で、ラマよりも21%から87%高いスループットを達成する。
マルチモーダルモデルでは,入力形式によらず,同一画像をコンテンツハッシュで識別することで,冗長な視覚符号化を不要とするコンテンツベースキャッシングを導入する。
論文 参考訳(メタデータ) (2026-01-27T03:11:02Z) - Towards General Robustness Verification of MaxPool-based Convolutional Neural Networks via Tightening Linear Approximation [51.235583545740674]
MaxLinは、線形近似が厳密なMaxPoolベースのCNNの堅牢性検証器である。
我々は、MNIST、CIFAR-10、Tiny ImageNetデータセットでトレーニングされたLeNetやネットワークを含むオープンソースのベンチマークでMaxLinを評価した。
論文 参考訳(メタデータ) (2024-06-02T10:33:04Z) - Enabling High-Sparsity Foundational Llama Models with Efficient Pretraining and Deployment [56.44025052765861]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、そのサイズは計算のボトルネックを生み出している。
そこで本研究では,高性能LLMの高精度かつ疎結合な基本バージョンを作成するための新しいアプローチを提案する。
スパース量子化LLaMAの最大8.6倍のCPU上での総高速化を示す。
論文 参考訳(メタデータ) (2024-05-06T16:03:32Z) - Recurrent Drafter for Fast Speculative Decoding in Large Language Models [18.342742904042673]
本稿では,高度な投機的復号法であるRecurrent Drafterを提案する。
大規模言語モデル(LLM)推論の最先端の高速化を実現する。
論文 参考訳(メタデータ) (2024-03-14T23:40:56Z) - An Efficient Sparse Inference Software Accelerator for Transformer-based
Language Models on CPUs [12.883586189626431]
トランスフォーマーベースの言語モデルは、自然言語処理タスクの標準的なアプローチとなっている。
既存のほとんどのニューラルネットワーク推論ランタイムは、構造化されたスパーシリティを適切にサポートしていない。
本稿では,トランスフォーマーに基づく言語モデルのための効率的なスパース深層学習ソフトウェアスタックを提案する。
論文 参考訳(メタデータ) (2023-06-28T23:55:51Z) - Parameter is Not All You Need: Starting from Non-Parametric Networks for
3D Point Cloud Analysis [51.0695452455959]
本稿では3Dポイントクラウド解析のための非パラメトリックネットワークであるPoint-NNについて述べる。
驚くべきことに、さまざまな3Dタスクでうまく機能し、パラメータやトレーニングを必要とせず、既存の完全に訓練されたモデルを超えています。
論文 参考訳(メタデータ) (2023-03-14T17:59:02Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Compiling ONNX Neural Network Models Using MLIR [51.903932262028235]
本稿では,深層ニューラルネットワークモデルの推論のためのコードを生成するonnx-mlirコンパイラについて予備報告を行う。
Onnx-mlirは、最近LLVMプロジェクトに統合されたMulti-Level Intermediate Representation (MLIR)インフラストラクチャに依存している。
論文 参考訳(メタデータ) (2020-08-19T05:28:08Z) - Hybrid Models for Learning to Branch [81.93868699246214]
我々はCPUマシン上で効率的な分岐を行うための新しいハイブリッドアーキテクチャを提案する。
提案アーキテクチャは,GNNの表現力と分岐処理のための計算コストの低い多層パーセプトロン(MLP)を組み合わせる。
論文 参考訳(メタデータ) (2020-06-26T21:03:45Z) - Deep Learning in Memristive Nanowire Networks [0.0]
MN3(Memristive Nanowire Neural Network)と呼ばれる新しいハードウェアアーキテクチャは、非常に広くスパースなニューラルネットワーク層をシミュレートするための効率的なアーキテクチャとして最近紹介された。
我々は,MN3が合成,勾配伝搬,重み更新を行うことができることを示す。
論文 参考訳(メタデータ) (2020-03-03T20:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。