論文の概要: Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2010.11465v1
- Date: Thu, 22 Oct 2020 06:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:06:35.822398
- Title: Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs
- Title(参考訳): 知識グラフにおけるマルチホップ論理推論のためのベータ埋め込み
- Authors: Hongyu Ren, Jure Leskovec
- Abstract要約: 知識グラフ(KG)上で任意のFOLクエリに応答する確率的埋め込みフレームワークであるBetaEを紹介する。
BetaEは、一階述語論理演算の完全なセットを処理できる最初のメソッドである。
大規模かつ不完全な3つのKG上での任意のFOLクエリ応答におけるBetaEの性能を示す。
- 参考スコア(独自算出の注目度): 89.51365993393787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the fundamental problems in Artificial Intelligence is to perform
complex multi-hop logical reasoning over the facts captured by a knowledge
graph (KG). This problem is challenging, because KGs can be massive and
incomplete. Recent approaches embed KG entities in a low dimensional space and
then use these embeddings to find the answer entities. However, it has been an
outstanding challenge of how to handle arbitrary first-order logic (FOL)
queries as present methods are limited to only a subset of FOL operators. In
particular, the negation operator is not supported. An additional limitation of
present methods is also that they cannot naturally model uncertainty. Here, we
present BetaE, a probabilistic embedding framework for answering arbitrary FOL
queries over KGs. BetaE is the first method that can handle a complete set of
first-order logical operations: conjunction ($\wedge$), disjunction ($\vee$),
and negation ($\neg$). A key insight of BetaE is to use probabilistic
distributions with bounded support, specifically the Beta distribution, and
embed queries/entities as distributions, which as a consequence allows us to
also faithfully model uncertainty. Logical operations are performed in the
embedding space by neural operators over the probabilistic embeddings. We
demonstrate the performance of BetaE on answering arbitrary FOL queries on
three large, incomplete KGs. While being more general, BetaE also increases
relative performance by up to 25.4% over the current state-of-the-art KG
reasoning methods that can only handle conjunctive queries without negation.
- Abstract(参考訳): 人工知能の基本的な問題の1つは、知識グラフ(KG)が捉えた事実に対して複雑なマルチホップ論理的推論を行うことである。
KGは巨大で不完全であるため、この問題は難しい。
最近のアプローチでは、kgエンティティを低次元空間に埋め込み、これらの埋め込みを使って答えのエンティティを見つける。
しかし、現在のメソッドはFOL演算子のサブセットに限られているため、任意の一階述語論理(FOL)クエリをどう扱うかという課題は際立っている。
特に、否定演算子はサポートされない。
この方法のさらなる制限は、自然に不確実性をモデル化できないことである。
ここでは, kg 上の任意の fol クエリに応答する確率的埋め込みフレームワーク betae を提案する。
betaeは、一階の論理演算の完全なセットを処理できる最初の方法である:コラボレート(\wedge$)、ディスジャンクション(\vee$)、ネゲーション(\neg$)。
betaeの重要な洞察は、バウンダリサポートを備えた確率分布、特にベータディストリビューションを使用し、クエリ/エンティティをディストリビューションとして埋め込むことであり、結果として不確実性を忠実にモデル化することができる。
論理演算は確率的埋め込み上のニューラルネットワークによって埋め込み空間で実行される。
3つの大きな不完全なkgs上で任意のfolクエリに応答するbetaeの性能を示す。
より汎用的である一方で、BetaEは、否定なしで共役クエリのみを処理できる現在の最先端KG推論メソッドに対して、相対的なパフォーマンスを最大25.4%向上させる。
関連論文リスト
- Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - GammaE: Gamma Embeddings for Logical Queries on Knowledge Graphs [8.880867550516472]
本稿では,エンティティやクエリをエンコードするための新しい確率的埋め込みモデルGamma Embeddings(GammaE)を提案する。
我々は,ガンマ分布の線形特性と強い境界サポートを利用して,エンティティやクエリのより多くの特徴を捉える。
GammaEの性能は3つの大きな論理クエリデータセットで検証される。
論文 参考訳(メタデータ) (2022-10-27T16:15:11Z) - Neural Methods for Logical Reasoning Over Knowledge Graphs [14.941769519278745]
知識グラフ(KGs)上でのマルチホップ論理的クエリの応答に焦点をあてる。
これまでのほとんどの作業では、FOL(First-Order Logical)クエリを完全に受け入れるモデルを作成することができなかった。
本稿では,ニューラルネットワークを用いて一点ベクトル埋め込みを生成し,問合せに答えるモデルを提案する。
論文 参考訳(メタデータ) (2022-09-28T23:10:09Z) - Neural-Symbolic Entangled Framework for Complex Query Answering [22.663509971491138]
複雑な問合せ応答のためのニューラル・アンド・エンタングルド・フレームワーク(ENeSy)を提案する。
これにより、ニューラルネットワークとシンボリック推論が互いに強化され、カスケードエラーとKGの不完全性が軽減される。
ENeSyは、特にリンク予測タスクのみでトレーニングモデルの設定において、いくつかのベンチマークでSOTA性能を達成する。
論文 参考訳(メタデータ) (2022-09-19T06:07:10Z) - Probabilistic Entity Representation Model for Chain Reasoning over
Knowledge Graphs [18.92547855877845]
本稿では,知識グラフ上の論理的推論のための確率的エンティティ表現モデル(PERM)を提案する。
PERMは、エンティティを平均と共分散パラメータで多変量ガウス密度としてエンコードし、意味的位置と滑らかな決定境界をキャプチャする。
われわれは, PERMの薬剤再精製事例研究における能力を示すとともに, 提案された研究が, 現行の方法よりもはるかに優れたF1薬剤を推奨できることを実証した。
論文 参考訳(メタデータ) (2021-10-26T09:26:10Z) - Fuzzy Logic based Logical Query Answering on Knowledge Graph [37.039516386710716]
本稿では,FOLクエリをKG上で応答するファジィ論理ベースのクエリ埋め込みフレームワークFuzzQEを提案する。
ファジィQEはファジィ論理に従い、原理的かつ学習的な方法で論理演算子を定義する。
2つのベンチマークデータセットの実験では、FOLクエリに対するFzzQEのパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2021-08-05T05:54:00Z) - Logic Embeddings for Complex Query Answering [56.25151854231117]
skolemisationを用いて効率的なクエリのための存在変数を排除する、複雑なクエリを組み込む新しいアプローチであるlogic embeddedsを提案する。
論理組込みは,大規模で不完全な知識グラフ上でのクエリ応答において競争的に高速かつ正確であり,否定的問合せよりも優れており,特に回答の不確かさのモデリングが向上している。
論文 参考訳(メタデータ) (2021-02-28T07:52:37Z) - Query2box: Reasoning over Knowledge Graphs in Vector Space using Box
Embeddings [84.0206612938464]
query2boxは、不完全な知識グラフ上の任意のクエリを推論するための埋め込みベースのフレームワークである。
query2boxは、スケーラブルな方法で$wedge$, $vee$, $exists$で任意の論理クエリを処理可能であることを示す。
本稿では,3つの大規模KGに対するQuery2boxの有効性を示すとともに,クエリ2boxが技術状況に対して最大25%の相対的な改善を達成可能であることを示す。
論文 参考訳(メタデータ) (2020-02-14T11:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。