論文の概要: When Routers, Switches and Interconnects Compute: A processing-in-interconnect Paradigm for Scalable Neuromorphic AI
- arxiv url: http://arxiv.org/abs/2508.19548v1
- Date: Wed, 27 Aug 2025 03:46:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.482813
- Title: When Routers, Switches and Interconnects Compute: A processing-in-interconnect Paradigm for Scalable Neuromorphic AI
- Title(参考訳): ルータ,スイッチ,インターコネクションの計算:スケーラブルなニューロモーフィックAIのための処理・イン・インターコネクションパラダイム
- Authors: Madhuvanthi Srivatsav R, Chiranjib Bhattacharyya, Shantanu Chakrabartty, Chetan Singh Thakur,
- Abstract要約: 典型的なAIワークロードに必要な操作は、遅延、因果性、タイムアウト、パケットドロップ、ブロードキャスト操作にマッピング可能であることを示す。
既存のバッファリングとトラフィック形成の組込みアルゴリズムを利用して、ニューロンモデルやシナプス操作を実装していることを示す。
相互接続技術におけるトレンドを活用することで、pi2アーキテクチャをより容易にスケールして、ブレインスケールのAI推論ワークロードを実行することが可能になる、と予測しています。
- 参考スコア(独自算出の注目度): 14.546627978614707
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Routing, switching, and the interconnect fabric are essential for large-scale neuromorphic computing. While this fabric only plays a supporting role in the process of computing, for large AI workloads it ultimately determines energy consumption and speed. In this paper, we address this bottleneck by asking: (a) What computing paradigms are inherent in existing routing, switching, and interconnect systems, and how can they be used to implement a processing-in-Interconnect (\pi^2) computing paradigm? and (b) leveraging current and future interconnect trends, how will a \pi^2 system's performance scale compared to other neuromorphic architectures? For (a), we show that operations required for typical AI workloads can be mapped onto delays, causality, time-outs, packet drop, and broadcast operations -- primitives already implemented in packet-switching and packet-routing hardware. We show that existing buffering and traffic-shaping embedded algorithms can be leveraged to implement neuron models and synaptic operations. Additionally, a knowledge-distillation framework can train and cross-map well-established neural network topologies onto $\pi^2$ without degrading generalization performance. For (b), analytical modeling shows that, unlike other neuromorphic platforms, the energy scaling of $\pi^2$ improves with interconnect bandwidth and energy efficiency. We predict that by leveraging trends in interconnect technology, a \pi^2 architecture can be more easily scaled to execute brain-scale AI inference workloads with power consumption levels in the range of hundreds of watts.
- Abstract(参考訳): ルーティング、スイッチング、相互接続のファブリックは、大規模なニューロモルフィックコンピューティングに不可欠である。
このファブリックはコンピューティングのプロセスにおいてのみ補助的な役割を果たすが、大規模なAIワークロードでは最終的にエネルギー消費と速度を決定する。
本稿では,このボトルネックを次のように問う。
(a)既存のルーティング、スイッチング、インターコネクトシステムに固有のコンピューティングパラダイムとは何であり、どのようにして処理・イン・インターコネクト(\pi^2)コンピューティングパラダイムを実装することができるのか?
そして
b) 現状と将来の相互接続の傾向を活用して、他のニューロモルフィックアーキテクチャと比較して、どのようにして \pi^2 システムの性能尺度がスケールされるか?
対訳 対訳 対訳 対訳 対訳 対訳 対
a) 典型的なAIワークロードに必要な操作を遅延、因果性、タイムアウト、パケットドロップ、ブロードキャスト操作にマッピングできることを示します -- プリミティブはすでにパケットスイッチとパケットルーティングハードウェアで実装されています。
既存のバッファリングとトラフィック形成の組込みアルゴリズムを利用して、ニューロンモデルやシナプス操作を実装していることを示す。
さらに、知識蒸留フレームワークは、よく確立されたニューラルネットワークトポロジを、一般化性能を劣化させることなく、$\pi^2$にトレーニングし、クロスマップすることができる。
対訳 対訳 対訳 対訳 対訳 対訳 対
(b) 解析的モデリングは、他のニューロモルフィックプラットフォームとは異なり、$\pi^2$のエネルギースケーリングが相互接続の帯域幅とエネルギー効率を改善していることを示している。
我々は、相互接続技術におけるトレンドを活用することで、数百ワットの範囲で消費電力レベルを持つ脳規模のAI推論ワークロードを実行するために、より容易に‘pi^2アーキテクチャ’をスケールできると予測する。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Complexity-Driven CNN Compression for Resource-constrained Edge AI [1.6114012813668934]
本稿では,CNNの層レベルでの複雑さを生かして,新しい,計算効率の高いプルーニングパイプラインを提案する。
パラメータ認識(PA)、FLOP認識(FA)、メモリ認識(MA)の3つのモードを定義し、CNNの汎用圧縮を導入する。
論文 参考訳(メタデータ) (2022-08-26T16:01:23Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Hardware Beyond Backpropagation: a Photonic Co-Processor for Direct
Feedback Alignment [26.65651157173834]
数兆のパラメータでランダムなプロジェクションを計算できる、ダイレクトフィードバックアライメントのためのフォトニック加速器を提案する。
これはスケーラブルなハードウェアを構築するための重要なステップであり、バックプロパゲーションを超えることができる。
論文 参考訳(メタデータ) (2020-12-11T14:20:45Z) - CLAN: Continuous Learning using Asynchronous Neuroevolution on Commodity
Edge Devices [3.812706195714961]
我々は、NeuroEvolutionary(NE)学習と推論を実行するWiFiを介して通信するRaspberry Piのプロトタイプシステムを構築した。
本研究では,このような協調システムの性能を評価し,システムの異なる配置の計算/通信特性について詳述する。
論文 参考訳(メタデータ) (2020-08-27T01:49:21Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。