論文の概要: Reasoning over Multi-view Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2209.13702v1
- Date: Tue, 27 Sep 2022 21:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:01:42.415162
- Title: Reasoning over Multi-view Knowledge Graphs
- Title(参考訳): 多視点知識グラフによる推論
- Authors: Zhaohan Xi, Ren Pang, Changjiang Li, Tianyu Du, Shouling Ji, Fenglong
Ma, Ting Wang
- Abstract要約: ROMAは、マルチビューKG上で論理クエリに応答する新しいフレームワークである。
大規模(数百万の事実など)のKGや粒度の細かいビューまでスケールする。
トレーニング中に観測されていない構造やKGビューのクエリを一般化する。
- 参考スコア(独自算出の注目度): 59.99051368907095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, knowledge representation learning (KRL) is emerging as the
state-of-the-art approach to process queries over knowledge graphs (KGs),
wherein KG entities and the query are embedded into a latent space such that
entities that answer the query are embedded close to the query. Yet, despite
the intensive research on KRL, most existing studies either focus on homogenous
KGs or assume KG completion tasks (i.e., inference of missing facts), while
answering complex logical queries over KGs with multiple aspects (multi-view
KGs) remains an open challenge.
To bridge this gap, in this paper, we present ROMA, a novel KRL framework for
answering logical queries over multi-view KGs. Compared with the prior work,
ROMA departs in major aspects. (i) It models a multi-view KG as a set of
overlaying sub-KGs, each corresponding to one view, which subsumes many types
of KGs studied in the literature (e.g., temporal KGs). (ii) It supports complex
logical queries with varying relation and view constraints (e.g., with complex
topology and/or from multiple views); (iii) It scales up to KGs of large sizes
(e.g., millions of facts) and fine-granular views (e.g., dozens of views); (iv)
It generalizes to query structures and KG views that are unobserved during
training. Extensive empirical evaluation on real-world KGs shows that \system
significantly outperforms alternative methods.
- Abstract(参考訳): 近年、知識表現学習(KRL)は、知識グラフ(KG)上のクエリを処理する最先端のアプローチとして登場しており、KGエンティティとクエリは、クエリに応答するエンティティがクエリの近くに埋め込まれるように、潜在空間に埋め込まれている。
しかしながら、KRLに関する集中的な研究にもかかわらず、既存の研究のほとんどは、同種KGに焦点を当てるか、KG完了タスク(すなわち、欠落した事実の推測)を仮定するか、複数の側面(複数ビューKG)を持つKG上の複雑な論理的クエリに答えることは、未解決の課題である。
本稿では、このギャップを埋めるために、マルチビューKG上で論理的クエリに応答する新しいKRLフレームワークであるROMAを提案する。
以前の作業と比較すると、ROMAは大きな側面で離脱している。
i) マルチビューKGを1つのビューに対応するオーバーレイサブKGの集合としてモデル化し、文献(例えば、時間的KG)で研究された多くのタイプのKGを仮定する。
(ii)関係やビューの制約(例えば、複雑なトポロジーや複数のビューから)を持つ複雑な論理クエリをサポートする。
(iii)大規模なKG(例:数百万の事実)と細粒度ビュー(例:数十のビュー)までスケールする。
(iv)トレーニング中に観測されないクエリ構造とKGビューを一般化する。
実世界のkgsに対する広範囲な経験的評価は、 \system が代替手法を大幅に上回っていることを示している。
関連論文リスト
- Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Knowledge Graphs Meet Multi-Modal Learning: A Comprehensive Survey [61.8716670402084]
本調査は,KG-driven Multi-Modal Learning(KG4MM)とMulti-Modal Knowledge Graph(MM4KG)の2つの主要な側面におけるKG認識研究に焦点を当てる。
KG対応マルチモーダル学習タスクと本質的MMKGタスクの2つの主要なタスクカテゴリについて検討した。
これらのタスクの多くに対して、定義、評価ベンチマークを提供し、関連する研究を行うための重要な洞察を概説する。
論文 参考訳(メタデータ) (2024-02-08T04:04:36Z) - Knowledge Graphs Querying [4.548471481431569]
我々は、KGクエリのために開発された様々な学際的なトピックと概念を統一することを目的としている。
KGとクエリ埋め込み、マルチモーダルKG、KG-QAの最近の進歩は、ディープラーニング、IR、NLP、コンピュータビジョンドメインから来ている。
論文 参考訳(メタデータ) (2023-05-23T19:32:42Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - A Survey On Few-shot Knowledge Graph Completion with Structural and
Commonsense Knowledge [3.4012007729454807]
FKGC(Few-shot KG completion)は、グラフ表現学習と少数ショット学習の長所を必要とする。
本稿では、一般的に使われているKGとCKGのFKGC課題を紹介する。
そこで,本研究では,KGのタイプと手法の観点から,既存の作品を体系的に分類し,要約する。
論文 参考訳(メタデータ) (2023-01-03T16:00:09Z) - Multilingual Knowledge Graph Completion via Ensemble Knowledge Transfer [43.453915033312114]
知識グラフ(KG)に欠けている事実を予測することは、知識ベースの構築と推論において重要なタスクである。
KEnSは、学習と知識のアンサンブルを複数の言語固有のKGに組み込むための新しいフレームワークである。
5つの実世界の言語固有のKGの実験により、KEnSはKG完了に関する最先端の手法を一貫して改善していることが示された。
論文 参考訳(メタデータ) (2020-10-07T04:54:03Z) - KACC: A Multi-task Benchmark for Knowledge Abstraction, Concretization
and Completion [99.47414073164656]
包括的知識グラフ(KG)は、インスタンスレベルのエンティティグラフとオントロジーレベルの概念グラフを含む。
2ビューのKGは、知識の抽象化、包括化、完成に関する人間の能力を「シミュレーション」するためのモデルのためのテストベッドを提供する。
我々は,データセットのスケール,タスクカバレッジ,難易度の観点から,既存のベンチマークを改善した統一KGベンチマークを提案する。
論文 参考訳(メタデータ) (2020-04-28T16:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。