論文の概要: Graph Distance as Surprise: Free Energy Minimization in Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2512.01878v1
- Date: Mon, 01 Dec 2025 16:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.97154
- Title: Graph Distance as Surprise: Free Energy Minimization in Knowledge Graph Reasoning
- Title(参考訳): グラフ距離が予想される:知識グラフ推論における自由エネルギー最小化
- Authors: Gaganpreet Jhajj, Fuhua Lin,
- Abstract要約: 本稿では,知識グラフ(KG)ネットワークにおける推論を,サプライズ最小化によって導出できることを提案する。
これは神経科学からKGシステムへの自由エネルギー原理(FEP)を結び、KGはエージェントの生成モデルとして機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose that reasoning in knowledge graph (KG) networks can be guided by surprise minimization. Entities that are close in graph distance will have lower surprise than those farther apart. This connects the Free Energy Principle (FEP) from neuroscience to KG systems, where the KG serves as the agent's generative model. We formalize surprise using the shortest-path distance in directed graphs and provide a framework for KG-based agents. Graph distance appears in graph neural networks as message passing depth and in model-based reinforcement learning as world model trajectories. This work-in-progress study explores whether distance-based surprise can extend recent work showing that syntax minimizes surprise and free energy via tree structures.
- Abstract(参考訳): 本研究では,知識グラフ(KG)ネットワークにおける推論を,サプライズ最小化によって導出できることを提案する。
グラフ距離が近いエンティティは、遠くにあるエンティティよりもサプライズが低いでしょう。
これは神経科学からKGシステムへの自由エネルギー原理(FEP)を結び、KGはエージェントの生成モデルとして機能する。
我々は、有向グラフにおける最短パス距離を用いてサプライズを定式化し、KGベースのエージェントのためのフレームワークを提供する。
グラフ距離は、メッセージパッシング深さとしてグラフニューラルネットワークに現れ、ワールドモデル軌道としてモデルベース強化学習に現れる。
このワーク・イン・プログレスの研究では、木構造を介して構文がサプライズと自由エネルギーを最小限に抑えることを示す最近の研究を、距離ベースのサプライズが拡張できるかどうかを調査している。
関連論文リスト
- A Fractional Graph Laplacian Approach to Oversmoothing [15.795926248847026]
非直交グラフから有向グラフへのオーバースムーシングの概念を一般化する。
非局所力学を記述した分数グラフ Laplacian Neural ODE を提案する。
グラフのディリクレエネルギーの収束に関して、我々の方法はより柔軟である。
論文 参考訳(メタデータ) (2023-05-22T14:52:33Z) - Geometric Knowledge Distillation: Topology Compression for Graph Neural
Networks [80.8446673089281]
グラフトポロジ情報をグラフニューラルネットワーク(GNN)に符号化することを目的とした知識伝達の新しいパラダイムについて検討する。
本稿では,GNNのアーキテクチャに関する基礎となる多様体の幾何学的性質をカプセル化するためのニューラルヒートカーネル(NHK)を提案する。
基本的な原理的解法は、NHKを幾何学的知識蒸留(Geometric Knowledge Distillation)と呼ばれる教師モデルと学生モデルに合わせることで導かれる。
論文 参考訳(メタデータ) (2022-10-24T08:01:58Z) - DeepGraphONet: A Deep Graph Operator Network to Learn and Zero-shot
Transfer the Dynamic Response of Networked Systems [7.618038774405048]
基礎となるサブグラフ構造を持つ複雑なシステムの力学を近似するフレームワークを開発する。
結果のDeepGraphONetは、与えられた短期/中期の時間的地平線内でのダイナミクスを予測することができる。
i)電力グリッドの過渡安定性予測問題と(ii)車両システムの交通流予測問題に関する実験結果から,提案したDeepGraphONetの有効性が示された。
論文 参考訳(メタデータ) (2022-09-21T19:24:18Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Template based Graph Neural Network with Optimal Transport Distances [11.56532171513328]
現在のグラフニューラルネットワーク(GNN)アーキテクチャは、2つの重要なコンポーネントに依存している。
本稿では,学習可能なグラフテンプレートとの距離をグラフ表現のコアに配置する新しい視点を提案する。
この距離埋め込みは、Fused Gromov-Wasserstein (FGW) 距離という最適な輸送距離によって構築される。
論文 参考訳(メタデータ) (2022-05-31T12:24:01Z) - Learning Graph Neural Networks with Positive and Unlabeled Nodes [34.903471348798725]
グラフニューラルネットワーク(GNN)は、グラフのノード分類など、トランスダクティブな学習タスクのための重要なツールです。
ほとんどのGNNモデルは、各ラウンドで短い距離から情報を集約し、グラフで長距離関係をキャプチャできません。
本論文では,これらの制限を克服するために,新しいグラフニューラルネットワークフレームワーク,LSDAN(Long-Short distance aggregation Network)を提案する。
論文 参考訳(メタデータ) (2021-03-08T11:43:37Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - GraphOpt: Learning Optimization Models of Graph Formation [72.75384705298303]
本稿では,グラフ構造形成の暗黙的モデルを学ぶエンドツーエンドフレームワークを提案し,その基盤となる最適化機構を明らかにする。
学習した目的は、観測されたグラフプロパティの説明として機能し、ドメイン内の異なるグラフを渡すために自分自身を貸すことができる。
GraphOptは、グラフ内のリンク生成をシーケンシャルな意思決定プロセスとして、最大エントロピー逆強化学習アルゴリズムを用いて解決する。
論文 参考訳(メタデータ) (2020-07-07T16:51:39Z) - Uncovering the Folding Landscape of RNA Secondary Structure with Deep
Graph Embeddings [71.20283285671461]
このようなグラフ埋め込みを学習するための幾何散乱オートエンコーダ(GSAE)ネットワークを提案する。
我々の埋め込みネットワークは、最近提案された幾何散乱変換を用いて、まずリッチグラフ特徴を抽出する。
GSAEは、構造とエネルギーの両方でRNAグラフを整理し、ビスタブルRNA構造を正確に反映していることを示す。
論文 参考訳(メタデータ) (2020-06-12T00:17:59Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。