論文の概要: A Case for Hypergraphs to Model and Map SNNs on Neuromorphic Hardware
- arxiv url: http://arxiv.org/abs/2601.16118v1
- Date: Thu, 22 Jan 2026 17:13:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.664998
- Title: A Case for Hypergraphs to Model and Map SNNs on Neuromorphic Hardware
- Title(参考訳): ニューロモルフィックハードウェア上でSNNをモデル化・マップするハイパーグラフの1例
- Authors: Marco Ronzani, Cristina Silvano,
- Abstract要約: ニューロモルフィックハードウェア上でのニューラルネットワーク(SNN)のスパイキングは、ニューロンをコアにマッピングする問題を引き起こす。
本研究では,グラフからハイパーグラフへのSNNの抽象化を提案する。
ハイパーエッジの重なり合いと局所性は高次写像と強く相関していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Executing Spiking Neural Networks (SNNs) on neuromorphic hardware poses the problem of mapping neurons to cores. SNNs operate by propagating spikes between neurons that form a graph through synapses. Neuromorphic hardware mimics them through a network-on-chip, transmitting spikes, and a mesh of cores, each managing several neurons. Its operational cost is tied to spike movement and active cores. A mapping comprises two tasks: partitioning the SNN's graph to fit inside cores and placement of each partition on the hardware mesh. Both are NP-hard problems, and as SNNs and hardware scale towards billions of neurons, they become increasingly difficult to tackle effectively. In this work, we propose to raise the abstraction of SNNs from graphs to hypergraphs, redesigning mapping techniques accordingly. The resulting model faithfully captures the replication of spikes inside cores by exposing the notion of hyperedge co-membership between neurons. We further show that the overlap and locality of hyperedges strongly correlate with high-quality mappings, making these properties instrumental in devising mapping algorithms. By exploiting them directly, grouping neurons through shared hyperedges, communication traffic and hardware resource usage can be reduced be yond what just contracting individual connections attains. To substantiate this insight, we consider several partitioning and placement algorithms, some newly devised, others adapted from literature, and compare them over progressively larger and bio-plausible SNNs. Our results show that hypergraph based techniques can achieve better mappings than the state-of-the-art at several execution time regimes. Based on these observations, we identify a promising selection of algorithms to achieve effective mappings at any scale.
- Abstract(参考訳): ニューロモルフィックハードウェア上でのスパイキングニューラルネットワーク(SNN)の実行は、ニューロンをコアにマッピングする問題を引き起こす。
SNNはシナプスを介してグラフを形成するニューロン間のスパイクを伝播することで機能する。
ニューロモルフィックハードウェアは、ネットワークオンチップ、スパイクの送信、コアのメッシュを通じてそれらを模倣し、それぞれが複数のニューロンを管理する。
運用コストはスパイク運動とアクティブコアと結びついている。
マッピングは、SNNのグラフをコア内に収まるように分割する、ハードウェアメッシュ上の各パーティションの配置という2つのタスクで構成される。
どちらもNPハード問題であり、SNNやハードウェアが数十億のニューロンにスケールするにつれ、効果的に取り組むことがますます困難になっている。
本研究では,SNNをグラフからハイパーグラフへ抽象化し,マッピング手法を再設計する手法を提案する。
結果として得られるモデルは、ニューロン間のハイパーエッジコメンバシップの概念を公開することによって、コア内のスパイクの複製を忠実に捉える。
さらに、ハイパーエッジの重なり合いと局所性は、高品質なマッピングと強く相関し、これらの特性がマッピングアルゴリズムの考案に有効であることを示す。
それらを直接利用することにより、共有ハイパーエッジを介してニューロンをグループ化し、通信トラフィックとハードウェアリソースの使用量を削減できる。
この知見を裏付けるために、いくつかの分割と配置アルゴリズム、新しく考案されたもの、文学に適応したものについて検討し、徐々に大きく、生物学的に証明可能なSNNと比較する。
以上の結果から,ハイパーグラフに基づく手法は,複数の実行時間体制において,最先端の手法よりも優れたマッピングを実現することが可能であることが示唆された。
これらの観測から,任意のスケールで効率的なマッピングを実現するアルゴリズムの選択が期待できる。
関連論文リスト
- Spiking Heterogeneous Graph Attention Networks [17.094622281945853]
本稿では,Spyking Heterogeneous Graph Attention Networks (SpikingHAN)を提案する。
SpikingHANは、共有パラメータを持つ単一層グラフ畳み込みを使用して、メタパスベースの隣の情報を集約する。
次に、異なるメタパスの重要性を捉え、セマンティックアグリゲーションを実行するために、セマンティックレベルのアテンションメカニズムを使用する。
論文 参考訳(メタデータ) (2025-12-31T08:17:59Z) - TGraphX: Tensor-Aware Graph Neural Network for Multi-Dimensional Feature Learning [0.0]
TGraphXは、ビジュアル推論タスクを強化するために、畳み込みニューラルネットワーク(CNN)とグラフニューラルネットワーク(GNN)を統合することによって、ディープラーニングの新たなパラダイムを提示している。
従来のCNNは、画像からリッチな空間的特徴を抽出することに長けているが、オブジェクト間の関係をモデル化する固有の能力に欠けていた。
提案手法は,空間的特徴抽出と関係推論のギャップを埋めるだけでなく,物体検出の洗練とアンサンブル推論の大幅な改善を示す。
論文 参考訳(メタデータ) (2025-04-04T21:38:20Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Graph Metanetworks for Processing Diverse Neural Architectures [33.686728709734105]
Graph Metanetworks(GMN)は、競合するメソッドが苦労するニューラルネットワークに一般化する。
GMNは,入力ニューラルネットワーク関数を残したパラメータ置換対称性と等価であることを示す。
論文 参考訳(メタデータ) (2023-12-07T18:21:52Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Visualizing Deep Neural Networks with Topographic Activation Maps [1.1470070927586014]
我々は,ディープニューラルネットワーク層におけるニューロンの地形的レイアウトを求める手法を紹介し,比較する。
本研究では,地形のアクティベーションマップを用いて誤りの特定やバイアスのエンコードを行い,トレーニングプロセスの可視化を行う。
論文 参考訳(メタデータ) (2022-04-07T15:56:44Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。