論文の概要: Physical Analog Kolmogorov-Arnold Networks based on Reconfigurable Nonlinear-Processing Units
- arxiv url: http://arxiv.org/abs/2602.07518v1
- Date: Sat, 07 Feb 2026 12:33:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.662209
- Title: Physical Analog Kolmogorov-Arnold Networks based on Reconfigurable Nonlinear-Processing Units
- Title(参考訳): 再構成可能な非線形プロセシングユニットに基づく物理アナログKolmogorov-Arnoldネットワーク
- Authors: Manuel Escudero, Mohamadreza Zolfagharinejad, Sjoerd van den Belt, Nikolaos Alachiotis, Wilfred G. van der Wiel,
- Abstract要約: Kolmogorov-Arnold Networks (KAN) はニューラルネットワークを線形層から学習可能な非線形エッジ関数にシフトする。
ここでは、再構成可能な非線形処理ユニット(RNPU)を用いて、マテリアでエッジ関数が実現される物理アナログkanアーキテクチャを紹介する。
我々は,プログラム可能な非線形変換を用いたコンパクトな感性回帰と分類を可能にする,現実的なシステムレベルのハードウェア実装を確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kolmogorov-Arnold Networks (KANs) shift neural computation from linear layers to learnable nonlinear edge functions, but implementing these nonlinearities efficiently in hardware remains an open challenge. Here we introduce a physical analog KAN architecture in which edge functions are realized in materia using reconfigurable nonlinear-processing units (RNPUs): multi-terminal nanoscale silicon devices whose input-output characteristics are tuned via control voltages. By combining multiple RNPUs into an edge processor and assembling these blocks into a reconfigurable analog KAN (aKAN) architecture with integrated mixed-signal interfacing, we establish a realistic system-level hardware implementation that enables compact KAN-style regression and classification with programmable nonlinear transformations. Using experimentally calibrated RNPU models and hardware measurements, we demonstrate accurate function approximation across increasing task complexity while requiring fewer or comparable trainable parameters than multilayer perceptrons (MLPs). System-level estimates indicate an energy per inference of $\sim$250 pJ and an end-to-end inference latency of $\sim$600 ns for a representative workload, corresponding to a $\sim$10$^{2}$-10$^{3}\times$ reduction in energy accompanied by a $\sim$10$\times$ reduction in area compared to a digital fixed-point MLP at similar approximation error. These results establish RNPUs as scalable, hardware-native nonlinear computing primitives and identify analog KAN architectures as a realistic silicon-based pathway toward energy-, latency-, and footprint-efficient analog neural-network hardware, particularly for edge inference.
- Abstract(参考訳): Kolmogorov-Arnold Networks (KANs) はニューラルネットワークを線形層から学習可能な非線形エッジ関数にシフトするが、これらの非線形性をハードウェアで効率的に実装することは未解決の課題である。
本稿では, 入力出力特性を制御電圧で調整した多端子ナノスケールシリコンデバイスであるRNPUを用いて, メタリアでエッジ関数を実現する物理アナログkanアーキテクチャを提案する。
複数のRNPUをエッジプロセッサに結合し、これらのブロックを複合信号インタフェースで再構成可能なアナログkan(aKAN)アーキテクチャに組み込むことで、コンパクトなkan型回帰とプログラム可能な非線形変換による分類を可能にする現実的なシステムレベルのハードウェア実装を確立する。
実験的に校正されたRNPUモデルとハードウェア計測を用いて、タスクの複雑さを増大させながら、マルチ層パーセプトロン(MLP)よりも少ないもしくは同等のトレーニング可能なパラメータを必要とする、正確な関数近似を実証する。
システムレベル推定は、$\sim$250 pJのエネルギーと、代表ワークロードに対する$\sim$600 nsのエンドツーエンドの推論遅延を示し、$\sim$10$^{2}$-10$^{3}\times$のエネルギー削減と、$\sim$10$\times$の面積削減を、同様の近似誤差でデジタル固定点MLPと比較する。
これらの結果は、RNPUをスケーラブルでハードウェアネイティブな非線形コンピューティングプリミティブとして確立し、特にエッジ推論において、エネルギー、レイテンシ、フットプリント効率のよいアナログニューラルネットワークハードウェアへの現実的なシリコンベースの経路としてアナログkanアーキテクチャを識別する。
関連論文リスト
- Bridging Function Approximation and Device Physics via Negative Differential Resistance Networks [17.356504841908826]
Kanalogue は、負の差動抵抗デバイスを用いた Kolmogorov-Arnold Networks (KAN) の完全なアナログ実装である。
NbSi2N4/HfSi2N4ヘテロ構造から作製したトンネルダイオードの固有負差抵抗特性を利用して、座標ワイド非線形性を構築する。
その結果,デジタルベースラインと競合する分類精度を維持しつつ,最小限のパラメータで複雑な関数を近似できることが示唆された。
論文 参考訳(メタデータ) (2025-10-24T15:38:22Z) - CMOS Implementation of Field Programmable Spiking Neural Network for Hardware Reservoir Computing [0.0]
Deep Neural Networks(DNN)やLarge Language Models(LLM)といった大規模ニューラルネットワークは、高消費電力、領域要件、プライバシに関する懸念から、エッジアプリケーションへの実践的なデプロイに挑戦する。
本研究は、ハードウェア貯水池コンピューティングのためのCMOS実装フィールドプログラマブルニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-09-22T05:19:46Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Gradient-descent hardware-aware training and deployment for mixed-signal
Neuromorphic processors [2.812395851874055]
混合信号ニューロモルフィックプロセッサはエッジ推論ワークロードに対して極めて低消費電力な演算を提供する。
我々は、混合信号型ニューロモルフィックプロセッサDYNAP-SE2へのスパイキングニューラルネットワーク(SNN)の訓練と展開のための新しい手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T08:56:54Z) - Implementing Neural Network-Based Equalizers in a Coherent Optical
Transmission System Using Field-Programmable Gate Arrays [3.1543509940301946]
我々は、コヒーレント光伝送システムにおける非線形性補償のための、リカレントおよびフィードフォワードニューラルネットワーク(NN)ベースの等化器のオフラインFPGA実現について述べる。
主な結果は、性能比較、アクティベーション関数の実装方法の分析、ハードウェアの複雑さに関するレポートの3つに分けられる。
論文 参考訳(メタデータ) (2022-12-09T07:28:45Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。