論文の概要: The Native Spiking Microarchitecture: From Iontronic Primitives to Bit-Exact FP8 Arithmetic
- arxiv url: http://arxiv.org/abs/2512.07724v1
- Date: Mon, 08 Dec 2025 17:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.974056
- Title: The Native Spiking Microarchitecture: From Iontronic Primitives to Bit-Exact FP8 Arithmetic
- Title(参考訳): ネイティブスパイクマイクロアーキテクチャー:イオントロニクスプリミティブからビット励起FP8算術へ
- Authors: Zhengzheng Tang,
- Abstract要約: 決定論的かつビットエクサクティヴなAIワークロードのためのNative Spiking Microarchitectureを提案する。
雑音ニューロンを論理的プリミティブとして扱うことにより,空間結合パイプラインとスティッキー・エクストラ補正機構を導入する。
全16,129のFP8ペアに対する検証では、PyTorchとの100%ビット差のアライメントが確認されている。
- 参考スコア(独自算出の注目度): 0.7614628596146601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 2025 Nobel Prize in Chemistry for Metal-Organic Frameworks (MOFs) and recent breakthroughs by Huanting Wang's team at Monash University establish angstrom-scale channels as promising post-silicon substrates with native integrate-and-fire (IF) dynamics. However, utilizing these stochastic, analog materials for deterministic, bit-exact AI workloads (e.g., FP8) remains a paradox. Existing neuromorphic methods often settle for approximation, failing Transformer precision standards. To traverse the gap "from stochastic ions to deterministic floats," we propose a Native Spiking Microarchitecture. Treating noisy neurons as logic primitives, we introduce a Spatial Combinational Pipeline and a Sticky-Extra Correction mechanism. Validation across all 16,129 FP8 pairs confirms 100% bit-exact alignment with PyTorch. Crucially, our architecture reduces Linear layer latency to O(log N), yielding a 17x speedup. Physical simulations further demonstrate robustness against extreme membrane leakage (beta approx 0.01), effectively immunizing the system against the stochastic nature of the hardware.
- Abstract(参考訳): 2025年、モナシュ大学のハンチング・ワング(Huanting Wang)のチームによる最近のブレークスルーは、アングストロームスケールのチャネルを、ネイティブな統合・アンド・ファイア(IF)ダイナミクスを持つ有望なシリコン基板として確立した。
しかし、これらの確率的アナログ材料を決定論的、ビットエクサクティヴなAIワークロード(例えばFP8)に利用することはパラドックスのままである。
既存のニューロモルフィック法はしばしば近似に落ち着き、トランスフォーマーの精度基準に反する。
確率的イオンから決定論的フロートへ」ギャップを横切るために,我々はNative Spiking Microarchitectureを提案する。
雑音ニューロンを論理的プリミティブとして扱うことにより,空間結合パイプラインとスティッキー・エクストラ補正機構を導入する。
16,129個のFP8ペアの検証では、PyTorchとの100%ビット差のアライメントが確認されている。
重要なことに、我々のアーキテクチャは線形層遅延をO(log N)に減らし、17倍のスピードアップをもたらす。
物理シミュレーションにより、極端膜リークに対する堅牢性(ベータアロックス0.01)がさらに証明され、ハードウェアの確率的性質に対するシステムを効果的に免疫する。
関連論文リスト
- Pay Attention Later: From Vector Space Diffusion to Linearithmic Spectral Phase-Locking [0.0]
スタンダードトランスフォーマーは「セマンティックアライメント税」に苦しむ
位相共鳴インテリジェントスペクトルモデル(PRISM)を導入する。
PRISMは複素領域(Cd)における共振周波数としてのセマンティックアイデンティティを符号化し、二次自己アテンションをリニアリトミック O(N log N) Gated Harmonic Convolutions に置き換える。
論文 参考訳(メタデータ) (2025-12-01T02:46:15Z) - Speeding Up MACE: Low-Precision Tricks for Equivarient Force Fields [51.95157731126864]
機械学習力場は高い計算コストで正確な分子動力学(MD)を提供することができる。
この論文は、計算ボトルネックを特定し、低精度の実行ポリシーを評価することで、MACEを安価かつ高速にすることを目的としている。
論文 参考訳(メタデータ) (2025-10-23T14:02:34Z) - To Compress or Not? Pushing the Frontier of Lossless GenAI Model Weights Compression with Exponent Concentration [46.63567524455431]
低精度浮動小数点フォーマットは、遅延化オーバーヘッドを伴わずに安定性、メモリ節約、ハードウェア効率を提供する。
本稿では,エントロピー対応エンコーディングとGPU最適化デコーディングを備えた圧縮フレームワークであるExponent-Concentrated FP8(ECF8)を提案する。
LLMとDiTの最大671Bパラメータの実験では、最大26.9%のメモリ節約と177.1%のスループット加速が示されている。
論文 参考訳(メタデータ) (2025-10-03T02:22:13Z) - A general optimization framework for mapping local transition-state networks [0.0]
局所遷移状態ネットワークは、観測された振る舞いを説明する障壁アーキテクチャを明らかにする。
本稿では,多目的エクスプローラーと二層最小モードカーネルを結合することにより,局所的カバレッジを体系的に拡張する汎用最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-30T13:54:10Z) - Physics-informed GNN for medium-high voltage AC power flow with edge-aware attention and line search correction operator [7.927606793404479]
物理インフォームドグラフニューラルネットワーク(PIGNN)は高速な交流電力フロー解法として登場した。
PIGNN-Attn-LSは電圧0.00033 p.uのRMSE、角度0.08$circ$のRMSEを達成し、それぞれPIGNN-MLPベースラインの99.5%と87.1%を上回っている。
論文 参考訳(メタデータ) (2025-09-26T15:09:26Z) - KITINet: Kinetics Theory Inspired Network Architectures with PDE Simulation Approaches [43.872190335490515]
本稿では,非平衡粒子動力学のレンズによる特徴伝播を再解釈する新しいアーキテクチャKITINetを紹介する。
そこで本研究では,粒子系の進化をモデルとした残留モジュールを提案する。
この定式化は粒子衝突とエネルギー交換を模倣し、物理インフォームド相互作用による適応的特徴改善を可能にする。
論文 参考訳(メタデータ) (2025-05-23T13:58:29Z) - LaPON: A Lagrange's-mean-value-theorem-inspired operator network for solving PDEs and its application on NSE [8.014720523981385]
ラグランジュの平均値定理に着想を得た演算子ネットワークであるLaPONを提案する。
損失関数ではなく、ニューラルネットワークアーキテクチャに直接、事前の知識を組み込む。
LaPONは、高忠実度流体力学シミュレーションのためのスケーラブルで信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T10:45:17Z) - Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [55.95767828747407]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - Transformer Neural Autoregressive Flows [48.68932811531102]
正規化フロー(NF)を用いて密度推定を行う。
我々はトランスフォーマーニューラルオートレグレッシブフロー(T-NAF)と呼ばれる新しいタイプのニューラルフローを定義するためにトランスフォーマーを利用する新しい解を提案する。
論文 参考訳(メタデータ) (2024-01-03T17:51:16Z) - Neuromorphic Hebbian learning with magnetic tunnel junction synapses [41.92764939721262]
磁気トンネル接合(MTJ)の双対抵抗状態による高精度推論を実現するニューロモルフィックネットワークの提案と実験的検討を行った。
MTJシナプスで直接実装したニューロモルフィックネットワークの最初の実演を行った。
また,STT-MTJシナプスを用いた非教師型ヘビアン学習システムにより,MNIST手書き文字認識の競争精度が向上できることをシミュレーションにより実証した。
論文 参考訳(メタデータ) (2023-08-21T19:58:44Z) - Neural Sampling Machine with Stochastic Synapse allows Brain-like
Learning and Inference [6.138129592577736]
NNの新しいクラスであるNeural-Sampling-Machineを紹介し、シナプス接続におけるシナプス性を利用してベイズ推定を近似する。
クロスバーと金属状態の間のセレクタ要素の固有のスイッチングは、NSMのシナプス内の乗算ノイズをもたらすことを実験的に示した。
回転試料における標準画像分類タスクとデータ不確実性推定について報告する。
論文 参考訳(メタデータ) (2021-02-20T23:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。