論文の概要: Neural-Symbolic Message Passing with Dynamic Pruning
- arxiv url: http://arxiv.org/abs/2501.14661v1
- Date: Fri, 24 Jan 2025 17:30:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:57:52.002291
- Title: Neural-Symbolic Message Passing with Dynamic Pruning
- Title(参考訳): 動的プルーニングを用いたニューラルシンボリックメッセージパッシング
- Authors: Chongzhi Zhang, Junhao Zheng, Zhiping Peng, Qianli Ma,
- Abstract要約: 本稿では,ニューラルネットワーク予測器を用いたNSMP(Neural-Symbolic Message Passing)フレームワークを提案する。
シンボリック推論とファジィ論理を導入することで、NSMPはトレーニングを必要とせずに任意の一階述語論理クエリに一般化することができる。
このアプローチと比較すると、NSMPはベンチマークデータセット上のすべてのクエリタイプに対して、より高速な推論時間を示す。
- 参考スコア(独自算出の注目度): 22.485655410582375
- License:
- Abstract: Complex Query Answering (CQA) over incomplete Knowledge Graphs (KGs) is a challenging task. Recently, a line of message-passing-based research has been proposed to solve CQA. However, they perform unsatisfactorily on negative queries and fail to address the noisy messages between variable nodes in the query graph. Moreover, they offer little interpretability and require complex query data and resource-intensive training. In this paper, we propose a Neural-Symbolic Message Passing (NSMP) framework based on pre-trained neural link predictors. By introducing symbolic reasoning and fuzzy logic, NSMP can generalize to arbitrary existential first order logic queries without requiring training while providing interpretable answers. Furthermore, we introduce a dynamic pruning strategy to filter out noisy messages between variable nodes. Experimental results show that NSMP achieves a strong performance. Additionally, through complexity analysis and empirical verification, we demonstrate the superiority of NSMP in inference time over the current state-of-the-art neural-symbolic method. Compared to this approach, NSMP demonstrates faster inference times across all query types on benchmark datasets, with speedup ranging from 2$\times$ to over 150$\times$.
- Abstract(参考訳): 不完全な知識グラフ(KG)に対する複雑クエリアンサーリング(CQA)は難しい課題である。
近年、CQAを解決するために、メッセージパッシングに基づく一連の研究が提案されている。
しかし、負のクエリで不満足に実行し、クエリグラフ内の変数ノード間のノイズの多いメッセージに対処できない。
さらに、解釈可能性はほとんどなく、複雑なクエリデータとリソース集約的なトレーニングが必要です。
本稿では,ニューラルネットワーク予測器を用いたNSMP(Neural-Symbolic Message Passing)フレームワークを提案する。
シンボリック推論とファジィ論理を導入することで、NSMPは解釈可能な答えを提供しながらトレーニングを必要とせず、任意の存在一階論理クエリに一般化することができる。
さらに、可変ノード間でノイズの多いメッセージをフィルタリングする動的プルーニング戦略を導入する。
実験の結果,NSMPは高い性能を示した。
さらに,複雑性解析や経験的検証を通じて,現在の最先端のニューラルシンボリック法よりも,NSMPの推論時間における優位性を実証した。
このアプローチと比較すると、NSMPはベンチマークデータセット上のすべてのクエリタイプで高速な推論時間を示し、スピードアップは2$\times$から150$\times$以上である。
関連論文リスト
- Conditional Logical Message Passing Transformer for Complex Query Answering [22.485655410582375]
我々は、新しい最先端のニューラルCQAモデル、条件付き論理メッセージパッシングトランス(CLMPT)を提案する。
我々は,本手法が性能に影響を与えずに計算コストを削減できることを実証的に検証した。
実験の結果, CLMPTは最先端のニューラルCQAモデルであることがわかった。
論文 参考訳(メタデータ) (2024-02-20T12:17:01Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Neural-Symbolic Entangled Framework for Complex Query Answering [22.663509971491138]
複雑な問合せ応答のためのニューラル・アンド・エンタングルド・フレームワーク(ENeSy)を提案する。
これにより、ニューラルネットワークとシンボリック推論が互いに強化され、カスケードエラーとKGの不完全性が軽減される。
ENeSyは、特にリンク予測タスクのみでトレーニングモデルの設定において、いくつかのベンチマークでSOTA性能を達成する。
論文 参考訳(メタデータ) (2022-09-19T06:07:10Z) - Neural-Symbolic Models for Logical Queries on Knowledge Graphs [17.290758383645567]
両世界の利点を享受するニューラルシンボリックモデルであるグラフニューラルネットワーククエリ実行器(GNN-QE)を提案する。
GNN-QEは複雑なFOLクエリを、ファジィ集合上の関係投影と論理演算に分解する。
3つのデータセットの実験により、GNN-QEはFOLクエリに応答する以前の最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-05-16T18:39:04Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Question Answering over Knowledge Bases by Leveraging Semantic Parsing
and Neuro-Symbolic Reasoning [73.00049753292316]
本稿では,意味解析と推論に基づくニューロシンボリック質問回答システムを提案する。
NSQAはQALD-9とLC-QuAD 1.0で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-12-03T05:17:55Z) - Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning [134.77207192945053]
従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-11T17:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。