論文の概要: Logic Diffusion for Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2306.03515v1
- Date: Tue, 6 Jun 2023 09:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 16:22:33.428132
- Title: Logic Diffusion for Knowledge Graph Reasoning
- Title(参考訳): 知識グラフ推論のための論理拡散
- Authors: Xiaoying Xie, Biao Gong, Yiliang Lv, Zhen Han, Guoshuai Zhao, Xueming
Qian
- Abstract要約: 本稿では,周辺環境から未知のクエリを発見するために,Logic Diffusion (LoD) と呼ばれるプラグインモジュールを提案する。
LoDは異なる種類のパターン間の動的平衡を達成する。
4つの公開データセットの実験は、LoDを用いた主流知識グラフ推論モデルの最先端性を示している。
- 参考スコア(独自算出の注目度): 29.260922651325412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most recent works focus on answering first order logical queries to explore
the knowledge graph reasoning via multi-hop logic predictions. However,
existing reasoning models are limited by the circumscribed logical paradigms of
training samples, which leads to a weak generalization of unseen logic. To
address these issues, we propose a plug-in module called Logic Diffusion (LoD)
to discover unseen queries from surroundings and achieves dynamical equilibrium
between different kinds of patterns. The basic idea of LoD is relation
diffusion and sampling sub-logic by random walking as well as a special
training mechanism called gradient adaption. Besides, LoD is accompanied by a
novel loss function to further achieve the robust logical diffusion when facing
noisy data in training or testing sets. Extensive experiments on four public
datasets demonstrate the superiority of mainstream knowledge graph reasoning
models with LoD over state-of-the-art. Moreover, our ablation study proves the
general effectiveness of LoD on the noise-rich knowledge graph.
- Abstract(参考訳): 最近の研究は、マルチホップ論理予測によるナレッジグラフ推論を探求するために、一階の論理クエリに答えることに焦点を当てている。
しかし、既存の推論モデルはトレーニングサンプルの周囲の論理パラダイムによって制限されており、未知の論理の弱い一般化につながる。
これらの問題に対処するため,周辺から目に見えないクエリを発見し,異なるパターン間の動的平衡を実現するために,Logic Diffusion (LoD) と呼ばれるプラグインモジュールを提案する。
lodの基本的な考え方は、ランダムウォーキングによる関係拡散とサンプリングサブ論理、および勾配適応と呼ばれる特別な訓練機構である。
また、トレーニングやテストセットでノイズデータに直面した場合に、ロバストな論理拡散を達成するための新しい損失関数がlodに付随する。
4つの公開データセットに対する大規模な実験は、LoDを用いた主流知識グラフ推論モデルの最先端性を示している。
さらに, 雑音に富む知識グラフにおけるlodの汎用的有効性を示す。
関連論文リスト
- A Logical Pattern Memory Pre-trained Model for Entailment Tree
Generation [23.375260036179252]
コヒーレントで信頼できる説明を生成することは、AI分野における重要な課題である。
論理パターンメモリ事前学習モデル(LMPM)を提案する。
我々のモデルは、基礎となる前提と密接に一致したより一貫性があり合理的な結論を生み出す。
論文 参考訳(メタデータ) (2024-03-11T03:45:09Z) - Understanding the Reasoning Ability of Language Models From the
Perspective of Reasoning Paths Aggregation [117.32019595678771]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびMWPデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Logic-induced Diagnostic Reasoning for Semi-supervised Semantic
Segmentation [85.12429517510311]
LogicDiagは、セマンティックセグメンテーションのためのニューラルネットワークによる半教師付き学習フレームワークである。
私たちの重要な洞察は、記号的知識によって識別される擬似ラベル内の衝突は、強いが一般的に無視される学習信号として機能する、ということです。
本稿では,論理規則の集合として意味論的概念の構造的抽象化を定式化するデータ・ハングリーセグメンテーションシナリオにおけるLogicDiagの実践的応用について紹介する。
論文 参考訳(メタデータ) (2023-08-24T06:50:07Z) - Dual Box Embeddings for the Description Logic EL++ [16.70961576041243]
知識グラフ(KG)と同様に、知識グラフはしばしば不完全であり、それらの維持と構築は困難であることが証明された。
KGsと同様に、有望なアプローチは、潜在ベクトル空間への埋め込みを学習し、基礎となるDLのセマンティクスに固執することである。
そこで本研究では,概念と役割をボックスとして表現した,DL EL++用のBox$2$ELという新しいオントロジー埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-01-26T14:13:37Z) - Multi-Step Deductive Reasoning Over Natural Language: An Empirical Study on Out-of-Distribution Generalisation [13.887376297334258]
自然言語で表現された多段階推論のための反復型ニューラルネットワークであるIMA-GloVe-GAを紹介する。
本モデルでは,RNNに基づく反復型メモリニューラルネットワークを用いて推論を行う。
論文 参考訳(メタデータ) (2022-07-28T10:44:46Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。