論文の概要: MINAR: Mechanistic Interpretability for Neural Algorithmic Reasoning
- arxiv url: http://arxiv.org/abs/2602.21442v1
- Date: Tue, 24 Feb 2026 23:38:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.64244
- Title: MINAR: Mechanistic Interpretability for Neural Algorithmic Reasoning
- Title(参考訳): MINAR:ニューラルアルゴリズム推論のための機械論的解釈可能性
- Authors: Jesse He, Helen Jenne, Max Vargas, Davis Brown, Gal Mishne, Yusu Wang, Henry Kvinge,
- Abstract要約: ニューラルアルゴリズム推論(MINAR)のための機械論的解釈可能性について紹介する。
MINARは、機械的解釈可能性からGNN設定への帰属パッチ手法を適用する。
2つのケーススタディを通して、MIARはアルゴリズムタスクで訓練されたGNNから忠実なニューロンレベル回路を回復することを示した。
- 参考スコア(独自算出の注目度): 17.920835259832238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent field of neural algorithmic reasoning (NAR) studies the ability of graph neural networks (GNNs) to emulate classical algorithms like Bellman-Ford, a phenomenon known as algorithmic alignment. At the same time, recent advances in large language models (LLMs) have spawned the study of mechanistic interpretability, which aims to identify granular model components like circuits that perform specific computations. In this work, we introduce Mechanistic Interpretability for Neural Algorithmic Reasoning (MINAR), an efficient circuit discovery toolbox that adapts attribution patching methods from mechanistic interpretability to the GNN setting. We show through two case studies that MINAR recovers faithful neuron-level circuits from GNNs trained on algorithmic tasks. Our study sheds new light on the process of circuit formation and pruning during training, as well as giving new insight into how GNNs trained to perform multiple tasks in parallel reuse circuit components for related tasks. Our code is available at https://github.com/pnnl/MINAR.
- Abstract(参考訳): 最近のニューラルネットワーク推論(NAR)の分野は、アルゴリズムアライメントとして知られるベルマンフォードのような古典的なアルゴリズムをエミュレートするグラフニューラルネットワーク(GNN)の能力を研究している。
同時に、大規模言語モデル(LLM)の最近の進歩は、特定の計算を行う回路のような粒度のモデルコンポーネントを特定することを目的として、機械論的解釈可能性の研究を生み出している。
本稿では,機械的解釈可能性からGNN設定への帰属パッチ手法の適用を目的とした,効率的な回路探索ツールボックスであるMINAR(Mechanistic Interpretability for Neural Algorithmic Reasoning)を紹介する。
我々は、MINARがアルゴリズムタスクで訓練されたGNNから忠実なニューロンレベル回路を回復する2つのケーススタディを通して示す。
我々の研究は、トレーニング中の回路形成とプルーニングのプロセスに新たな光を当て、また、GNNが複数のタスクを並列再利用回路コンポーネントで実行し、関連するタスクについてどのように訓練するかについて、新たな洞察を与える。
私たちのコードはhttps://github.com/pnnl/MINAR.comで公開されています。
関連論文リスト
- Which Algorithms Can Graph Neural Networks Learn? [14.935565203071528]
本稿ではMPNNがアルゴリズムを学習できる十分な条件を特徴付ける一般的な理論的枠組みを提案する。
我々のフレームワークは、単一ソースのショートベストパス、最小スパンニングツリー、一般的な動的プログラミング問題など、幅広い種類のアルゴリズムに適用できる。
論文 参考訳(メタデータ) (2026-02-13T17:09:50Z) - Mind The Gap: Deep Learning Doesn't Learn Deeply [16.284360949127723]
本稿では,ニューラルネットワークが2つの疑問に対処してアルゴリズム推論をどのように学習するかを理解することを目的とする。
ニューラルネットワークが効果的なアルゴリズムを学習できないのはなぜなのか?
論文 参考訳(メタデータ) (2025-05-24T10:11:36Z) - Learning to Add, Multiply, and Execute Algorithmic Instructions Exactly with Neural Networks [13.351162559710124]
無限幅限界における2層完全連結ネットワークのトレーニング力学について検討する。
このようなモデルの十分な大規模なアンサンブルが、高い確率で正確に実行するためにどのように訓練されるかを示す。
対数的に多くのトレーニングデータだけを用いて効率よく達成できることを示します。
論文 参考訳(メタデータ) (2025-02-24T00:50:02Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural Algorithmic Reasoning with Causal Regularisation [18.299363749150093]
我々は重要な観察を行う: アルゴリズムが特定の中間計算を同一に実行する多くの異なる入力が存在する。
この洞察により、アルゴリズムの中間軌道が与えられた場合、ターゲットアルゴリズムが全く同じ次の軌道ステップを持つような入力を生成するデータ拡張手順を開発することができる。
我々は、Hint-Relicと呼ばれる結果の手法が、推論器のOOD一般化能力を改善することを証明した。
論文 参考訳(メタデータ) (2023-02-20T19:41:15Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。