論文の概要: From Priors to Predictions: Explaining and Visualizing Human Reasoning in a Graph Neural Network Framework
- arxiv url: http://arxiv.org/abs/2512.17255v1
- Date: Fri, 19 Dec 2025 05:56:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.258622
- Title: From Priors to Predictions: Explaining and Visualizing Human Reasoning in a Graph Neural Network Framework
- Title(参考訳): 予測から予測へ:グラフニューラルネットワークフレームワークにおける人間推論の説明と可視化
- Authors: Quan Do, Caroline Ahn, Leah Bakst, Michael Pascale, Joseph T. McGuire, Chantal E. Stern, Michael E. Hasselmo,
- Abstract要約: 我々は、帰納バイアスを、構造と抽象化に対する明示的で操作可能な先行として定式化する。
グラフに基づく事前の差異は、人間の解の個人差を説明できることを示す。
この研究は、表現的仮定と一般化の基礎となる計算力学をモデル化するための、原則的、解釈可能なフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.32834818175343855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans excel at solving novel reasoning problems from minimal exposure, guided by inductive biases, assumptions about which entities and relationships matter. Yet the computational form of these biases and their neural implementation remain poorly understood. We introduce a framework that combines Graph Theory and Graph Neural Networks (GNNs) to formalize inductive biases as explicit, manipulable priors over structure and abstraction. Using a human behavioral dataset adapted from the Abstraction and Reasoning Corpus (ARC), we show that differences in graph-based priors can explain individual differences in human solutions. Our method includes an optimization pipeline that searches over graph configurations, varying edge connectivity and node abstraction, and a visualization approach that identifies the computational graph, the subset of nodes and edges most critical to a model's prediction. Systematic ablation reveals how generalization depends on specific prior structures and internal processing, exposing why human like errors emerge from incorrect or incomplete priors. This work provides a principled, interpretable framework for modeling the representational assumptions and computational dynamics underlying generalization, offering new insights into human reasoning and a foundation for more human aligned AI systems.
- Abstract(参考訳): 人間は、帰納的バイアス、どの実体と関係が重要かという仮定によって導かれる、最小限の露光から新しい推論問題を解くのに長けている。
しかし、これらのバイアスの計算形式とそれらの神経実装はいまだに理解されていない。
グラフ理論とグラフニューラルネットワーク(GNN)を組み合わせて、帰納的バイアスを、構造と抽象化に対する明示的で操作可能な先行として定式化するフレームワークを導入する。
ARC(Abstraction and Reasoning Corpus)から適応した人間の行動データセットを用いて、グラフに基づく事前の差異は、人間の解の個人差を説明することができることを示す。
提案手法は,グラフ構成を探索する最適化パイプライン,エッジ接続やノードの抽象化,計算グラフ,ノードのサブセット,モデルの予測に最も重要なエッジを識別する可視化アプローチを含む。
体系的アブレーションは、一般化が特定の事前構造や内部処理に依存することを明らかにする。
この研究は、表現的仮定と基礎となる計算力学をモデル化するための、原則化された解釈可能なフレームワークを提供し、人間の推論に対する新たな洞察と、より人間に整合したAIシステムの基盤を提供する。
関連論文リスト
- Enhancing Explainability of Graph Neural Networks Through Conceptual and Structural Analyses and Their Extensions [0.9645196221785692]
グラフニューラルネットワーク(GNN)は,グラフ構造を用いたデータのモデリングと解析を行う強力なツールとなっている。
現在の説明可能なAI(XAI)メソッドは、グラフ内の複雑な関係や相互作用を解き放つのに苦労している。
この論文は、グラフベースの機械学習に適した新しいXAIフレームワークの開発を目指している。
論文 参考訳(メタデータ) (2025-12-09T08:13:31Z) - Foundations and Frontiers of Graph Learning Theory [81.39078977407719]
グラフ学習の最近の進歩は、複雑な構造を持つデータを理解し分析する方法に革命をもたらした。
グラフニューラルネットワーク(GNN)、すなわちグラフ表現を学習するために設計されたニューラルネットワークアーキテクチャは、一般的なパラダイムとなっている。
本稿では,グラフ学習モデルに固有の近似と学習行動に関する理論的基礎とブレークスルーについて概説する。
論文 参考訳(メタデータ) (2024-07-03T14:07:41Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - Towards Human-like Perception: Learning Structural Causal Model in
Heterogeneous Graph [26.361815957385417]
本研究では,HG-SCM(構造因果モデルとしての異種グラフ)という新しい解を提案する。
グラフスキーマから派生したセマンティクスに基づく無知変数の構築と、高度な因果発見技術を導入して、これらの変数間のタスクレベルの因果関係を自動的に学習する。
HG-SCMは標準偏差を最小限に抑え、予測力と一般化性の両方の観点からその有効性と優位性を実証した。
論文 参考訳(メタデータ) (2023-12-10T04:34:35Z) - On the Expressiveness and Generalization of Hypergraph Neural Networks [77.65788763444877]
この拡張抽象化はハイパーグラフニューラルネットワーク(HyperGNN)の表現性、学習、および(構造的)一般化を分析するためのフレームワークを記述する。
具体的には、HyperGNNが有限データセットからどのように学習し、任意の入力サイズのグラフ推論問題に構造的に一般化するかに焦点を当てる。
論文 参考訳(メタデータ) (2023-03-09T18:42:18Z) - A Theory of Link Prediction via Relational Weisfeiler-Leman on Knowledge
Graphs [6.379544211152605]
グラフニューラルネットワークは、グラフ構造化データ上での表現学習のための顕著なモデルである。
私たちの目標は、知識グラフのためのグラフニューラルネットワークのランドスケープを体系的に理解することです。
論文 参考訳(メタデータ) (2023-02-04T17:40:03Z) - MEGAN: Multi-Explanation Graph Attention Network [1.1470070927586016]
マルチエクスラレーショングラフアテンションネットワーク(MEGAN)を提案する。
既存のグラフ説明可能性法とは異なり、ネットワークは複数のチャネルに沿ってノードとエッジの属性の説明を生成することができる。
我々の注意に基づくネットワークは完全に差別化可能であり、説明を指導的な方法で積極的に訓練することができる。
論文 参考訳(メタデータ) (2022-11-23T16:10:13Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Learning to Induce Causal Structure [29.810917060087117]
本稿では,合成グラフの教師あり学習を通じて,観測データと介入データの両方からグラフ構造へのマッピングを学習するニューラルネットワークアーキテクチャを提案する。
提案モデルは,新しい合成グラフだけでなく,自然主義グラフにも一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-04-11T05:38:22Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。