論文の概要: Recurrent Graph Neural Networks and Arithmetic Circuits
- arxiv url: http://arxiv.org/abs/2603.05140v1
- Date: Thu, 05 Mar 2026 13:10:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.234859
- Title: Recurrent Graph Neural Networks and Arithmetic Circuits
- Title(参考訳): リカレントグラフニューラルネットワークと算術回路
- Authors: Timon Barlag, Vivian Holzapfel, Laura Strieker, Jonni Virtema, Heribert Vollmer,
- Abstract要約: 本稿では,実数上での演算回路を用いて,繰り返しグラフニューラルネットワーク(GNN)の計算能力の特徴付けを行う。
本稿では、逐次回路や論理回路の算術類似体として見ることのできる、逐次演算回路のモデルを紹介する。
- 参考スコア(独自算出の注目度): 3.996231905922229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We characterise the computational power of recurrent graph neural networks (GNNs) in terms of arithmetic circuits over the real numbers. Our networks are not restricted to aggregate-combine GNNs or other particular types. Generalizing similar notions from the literature, we introduce the model of recurrent arithmetic circuits, which can be seen as arithmetic analogues of sequential or logical circuits. These circuits utilise so-called memory gates which are used to store data between iterations of the recurrent circuit. While (recurrent) GNNs work on labelled graphs, we construct arithmetic circuits that obtain encoded labelled graphs as real valued tuples and then compute the same function. For the other direction we construct recurrent GNNs which are able to simulate the computations of recurrent circuits. These GNNs are given the circuit-input as initial feature vectors and then, after the GNN-computation, have the circuit-output among the feature vectors of its nodes. In this way we establish an exact correspondence between the expressivity of recurrent GNNs and recurrent arithmetic circuits operating over real numbers.
- Abstract(参考訳): 本稿では,実数上での演算回路を用いて,繰り返しグラフニューラルネットワーク(GNN)の計算能力の特徴付けを行う。
私たちのネットワークは、集約型GNNや他の特定のタイプに限定されていません。
類似した概念を文献から一般化し、逐次回路や論理回路の算術的類似と見なすことができる逐次演算回路のモデルを導入する。
これらの回路は、リカレント回路の繰り返し間のデータを格納するために使用されるいわゆるメモリゲートを利用する。
GNNはラベル付きグラフに作用するが、符号化されたラベル付きグラフを実値タプルとして取得し、同じ関数を演算する演算回路を構築する。
一方、再帰回路の計算をシミュレートできる再帰GNNを構築している。
これらのGNNは、初期特徴ベクトルとして回路インプットが与えられ、GNN計算の後、そのノードの特徴ベクトルの中で回路アウトプットが与えられる。
このようにして、リカレントGNNの表現率と実数上で動作しているリカレント演算回路との正確な対応性を確立する。
関連論文リスト
- MINAR: Mechanistic Interpretability for Neural Algorithmic Reasoning [17.920835259832238]
ニューラルアルゴリズム推論(MINAR)のための機械論的解釈可能性について紹介する。
MINARは、機械的解釈可能性からGNN設定への帰属パッチ手法を適用する。
2つのケーススタディを通して、MIARはアルゴリズムタスクで訓練されたGNNから忠実なニューロンレベル回路を回復することを示した。
論文 参考訳(メタデータ) (2026-02-24T23:38:06Z) - Quantifying The Limits of AI Reasoning: Systematic Neural Network Representations of Algorithms [10.292476979020522]
基本的に任意の回路をフィードフォワードニューラルネットワーク(NN)に変換するシステムメタアルゴリズムを提案する。
あらゆるデジタルコンピュータ上で、我々の構成は回路を正確にエミュレートしている ― 近似がなく、丸めず、モジュラーなオーバーフローも含まない ― ニューラルネットワークの範囲を超えて推論タスクが存在しないことを実証している。
論文 参考訳(メタデータ) (2025-08-25T21:55:37Z) - Graph Neural Networks and Arithmetic Circuits [0.0]
グラフニューラルネットワークアーキテクチャに従うニューラルネットワークの計算能力の特徴付けを行う。
多様なアクティベーション関数と実数演算を用いたGNNの表現率の正確な対応性を確立する。
論文 参考訳(メタデータ) (2024-02-27T11:04:06Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - The Descriptive Complexity of Graph Neural Networks [2.6728900378310514]
グラフクエリはグラフニューラルネットワーク(GNN)の有界サイズファミリによって計算可能であることを示す。
GNNは、カウントとビルトインの関係を持つ一階述語論理のガードされた断片で定義できる。
GFO+Cでは1つのGNNで1つの線形アクティベーションと有理重みを持つクエリが組込み関係なく定義可能であることを示す。
論文 参考訳(メタデータ) (2023-03-08T14:32:59Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。