論文の概要: What is Normal, What is Strange, and What is Missing in a Knowledge
Graph: Unified Characterization via Inductive Summarization
- arxiv url: http://arxiv.org/abs/2003.10412v1
- Date: Mon, 23 Mar 2020 17:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 23:52:02.161727
- Title: What is Normal, What is Strange, and What is Missing in a Knowledge
Graph: Unified Characterization via Inductive Summarization
- Title(参考訳): 普通であること、奇妙であること、知識グラフに欠けていること:帰納的要約による統一キャラクタリゼーション
- Authors: Caleb Belth, Xinyi Zheng, Jilles Vreeken, Danai Koutra
- Abstract要約: ここでは,KGを教師なしKG要約として定式化することにより,KG特徴量に対する統一解を導入する。
KGistは最小記述長原理に従ってKGを最もよく圧縮する帰納規則の要約を学習する。
KGistは, エラー検出や不完全性同定において, タスク固有の, 教師あり, 教師なしのベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 34.3446695203147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) store highly heterogeneous information about the world
in the structure of a graph, and are useful for tasks such as question
answering and reasoning. However, they often contain errors and are missing
information. Vibrant research in KG refinement has worked to resolve these
issues, tailoring techniques to either detect specific types of errors or
complete a KG.
In this work, we introduce a unified solution to KG characterization by
formulating the problem as unsupervised KG summarization with a set of
inductive, soft rules, which describe what is normal in a KG, and thus can be
used to identify what is abnormal, whether it be strange or missing. Unlike
first-order logic rules, our rules are labeled, rooted graphs, i.e., patterns
that describe the expected neighborhood around a (seen or unseen) node, based
on its type, and information in the KG. Stepping away from the traditional
support/confidence-based rule mining techniques, we propose KGist, Knowledge
Graph Inductive SummarizaTion, which learns a summary of inductive rules that
best compress the KG according to the Minimum Description Length principle---a
formulation that we are the first to use in the context of KG rule mining. We
apply our rules to three large KGs (NELL, DBpedia, and Yago), and tasks such as
compression, various types of error detection, and identification of incomplete
information. We show that KGist outperforms task-specific, supervised and
unsupervised baselines in error detection and incompleteness identification,
(identifying the location of up to 93% of missing entities---over 10% more than
baselines), while also being efficient for large knowledge graphs.
- Abstract(参考訳): 知識グラフ(KG)は、グラフの構造において世界に関する非常に異質な情報を格納し、質問応答や推論などのタスクに有用である。
しかし、エラーをしばしば含んでおり、情報が欠落している。
KGリファインメントの活力ある研究は、これらの問題を解決し、特定の種類のエラーを検知するか、KGを完了させるテクニックを調整してきた。
そこで本研究では,KGの非教師的KG要約を,KGの正規性を記述する帰納的ソフトルールの集合を用いて定式化することにより,KG特徴量に対する統一解を導入する。
一階述語論理規則と異なり、我々の規則はラベル付けされ、根付きグラフ、すなわち、その型とkgの情報に基づいて、(seenまたはunseen)ノード周辺の期待される近傍を記述するパターンである。
従来のサポート/信頼に基づくルールマイニング技術から離れ、KGist, Knowledge Graph Inductive SummarizaTionを提案する。これは、KGルールマイニングの文脈で最初に使用する定式化である最小記述長さ(Minimum Description Length)に基づいて、KGを最もよく圧縮する帰納的ルールの要約を学習する。
このルールを3つの大きなkgs(nell、dbpedia、yago)に適用し、圧縮、様々なタイプのエラー検出、不完全な情報の識別などのタスクを適用した。
我々は,KGistがタスク固有の,教師なし,教師なしのベースラインを,エラー検出や不完全性識別において上回り(欠落したエンティティの最大93%の場所を同定する),また,大規模知識グラフの効率性も向上していることを示す。
関連論文リスト
- A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - Learning Rules from KGs Guided by Language Models [48.858741745144044]
ルール学習手法は、潜在的に欠落する事実を予測するために適用することができる。
規則のランク付けは、高度に不完全あるいは偏りのあるKGよりも特に難しい。
近年のLanguage Models (LM) の台頭により、いくつかの研究が、LMがKG補完の代替手段として利用できると主張している。
論文 参考訳(メタデータ) (2024-09-12T09:27:36Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - Contrastive Knowledge Graph Error Detection [11.637359888052014]
提案する新しいフレームワーク - ContrAstive Knowledge Graph Error Detection (CAGED) を提案する。
CAGEDは、KG学習に対照的な学習を導入し、KGモデリングの新しい方法を提供する。
KGエラー検出における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-18T05:01:19Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - DegreEmbed: incorporating entity embedding into logic rule learning for
knowledge graph reasoning [7.066269573204757]
知識グラフのリンク予測は、既存の知識に基づいて推論することで、行方不明の事実を完遂することを目的としたタスクである。
組込み学習と論理ルールマイニングを組み合わせたKG上での推論モデルであるDegreEmbedを提案する。
論文 参考訳(メタデータ) (2021-12-18T13:38:48Z) - Entity Type Prediction in Knowledge Graphs using Embeddings [2.7528170226206443]
オープンナレッジグラフ(DBpedia、Wikidata、YAGOなど)は、データマイニングと情報検索の分野における多様なアプリケーションのバックボーンとして認識されている。
これらのKGのほとんどは、スナップショットからの自動情報抽出またはユーザーが提供する情報蓄積によって作成されるか、ウィキペディアを用いて作成される。
これらのKGの型情報は、しばしばうるさい、不完全、不正確である。
KG埋め込みを用いたエンティティタイピングのためのマルチラベル分類手法を提案する。
論文 参考訳(メタデータ) (2020-04-28T17:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。