論文の概要: A topic-aware graph neural network model for knowledge base updating
- arxiv url: http://arxiv.org/abs/2208.14601v1
- Date: Wed, 31 Aug 2022 02:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:37:08.601073
- Title: A topic-aware graph neural network model for knowledge base updating
- Title(参考訳): 知識ベース更新のためのトピック対応グラフニューラルネットワークモデル
- Authors: Jiajun Tong, Zhixiao Wang, Xiaobin Rui
- Abstract要約: 主な課題は、最新の知識ベースを維持することです。
現在の知識ベース更新方法は、エンティティを更新する必要があるかどうかを決定する。
ユーザクエリログに基づく知識更新のためのトピック対応グラフネットワークを構築した。
- 参考スコア(独自算出の注目度): 0.6875312133832077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The open domain knowledge base is very important. It is usually extracted
from encyclopedia websites and is widely used in knowledge retrieval systems,
question answering systems, or recommendation systems. In practice, the key
challenge is to maintain an up-to-date knowledge base. Different from Unwieldy
fetching all of the data from the encyclopedia dumps, to enlarge the freshness
of the knowledge base as big as possible while avoiding invalid fetching, the
current knowledge base updating methods usually determine whether entities need
to be updated by building a prediction model. However, these methods can only
be defined in some specific fields and the result turns out to be obvious bias,
due to the problem of data source and data structure. The users' query
intentions are often diverse as to the open domain knowledge, so we construct a
topic-aware graph network for knowledge updating based on the user query log.
Our methods can be summarized as follow: 1. Extract entities through the user's
log and select them as seeds 2. Scrape the attributes of seed entities in the
encyclopedia website, and self-supervised construct the entity attribute graph
for each entity. 3. Use the entity attribute graph to train the GNN entity
update model to determine whether the entity needs to be synchronized. 4.Use
the encyclopedia knowledge to match and update the filtered entity with the
entity in the knowledge base according to the minimum edit times algorithm.
- Abstract(参考訳): オープンドメインの知識基盤は非常に重要です。
典型的には百科事典のウェブサイトから抽出され、知識検索システム、質問応答システム、レコメンデーションシステムで広く利用されている。
実際、重要な課題は、最新の知識ベースを維持することです。
Unwieldyが百科事典のダンプからすべてのデータをフェッチするのと異なり、無効なフェッチを避けながら、可能な限り知識ベースの鮮度を拡大するため、現在の知識ベース更新方法は通常、予測モデルを構築してエンティティを更新する必要があるかどうかを判断する。
しかし、これらの手法は特定のフィールドでのみ定義することができ、その結果、データソースやデータ構造の問題により明らかなバイアスとなることが判明した。
ユーザのクエリ意図はオープンドメインの知識に関して多様であり,ユーザクエリログに基づいた知識更新のためのトピック対応グラフネットワークを構築している。
我々の手法は次のように要約できる。
1. ユーザのログからエンティティを抽出し、種として選択する
2. 百科事典ウェブサイトにおける種実体の属性を抽出し、各エンティティの属性グラフを自己管理的に構築する。
3. エンティティ属性グラフを使用して、GNNエンティティ更新モデルをトレーニングし、エンティティを同期する必要があるかどうかを判断する。
4. 最小編集時間アルゴリズムにより、百科事典知識を用いて、フィルタリングされたエンティティを知識ベース内のエンティティとマッチングして更新する。
関連論文リスト
- Towards Better Generalization in Open-Domain Question Answering by Mitigating Context Memorization [67.92796510359595]
Open-Domain Question Answering (OpenQA)は、外部の大規模知識コーパスで事実質問に答えることを目的としている。
OpenQAモデルが完全に新しい知識ドメインにどの程度うまく移行できるかは、まだ不明である。
コーパス不変チューニング(CIT: Corpus-Invariant Tuning)は,記憶過剰な知識の軽減を目的とした,シンプルで効果的なトレーニング戦略である。
論文 参考訳(メタデータ) (2024-04-02T05:44:50Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Task Oriented Conversational Modelling With Subjective Knowledge [0.0]
DSTC-11は、ターン検出、知識選択、応答生成を求める知識からなる3段階パイプラインを提案する。
本稿では,正確で高速な知識検索を実現するエンティティ検索手法を提案する。
予備的な結果から,知識選択作業における一致点の精度は4%向上した。
論文 参考訳(メタデータ) (2023-03-30T20:23:49Z) - Automatic Semantic Modeling for Structural Data Source with the Prior
Knowledge from Knowledge Base [15.075047172918547]
本稿では、機械学習、グラフマッチング、修正された頻繁なサブグラフマイニングを用いて、構造化データソースを意味的に注釈付けする新しい手法を提案する。
提案手法は,少数のモデルしか知られていない難解な場合において,最先端の2つのソリューションより優れている。
論文 参考訳(メタデータ) (2022-12-21T10:54:59Z) - Leveraging Wikidata's edit history in knowledge graph refinement tasks [77.34726150561087]
編集履歴は、コミュニティが何らかのファジィで分散した合意に達する過程を表す。
Wikidataで最も重要な100のクラスから、すべてのインスタンスの編集履歴を含むデータセットを構築します。
タイプ予測タスクのための知識グラフ埋め込みモデルにおいて,この編集履歴情報を活用する2つの新しい手法を提案し,評価する。
論文 参考訳(メタデータ) (2022-10-27T14:32:45Z) - An Inference Approach To Question Answering Over Knowledge Graphs [7.989723691844202]
本研究では,知識グラフ上の自然言語クエリの問題を前提-仮説ペア上の推論問題に変換する。
提案手法は,MetaQAデータセット上で90%以上の精度を達成し,既存の最先端技術を上回っている。
我々のアプローチでは、異なるドメインからの新しい知識グラフをクエリするために、大きなドメイン固有のトレーニングデータを必要としない。
論文 参考訳(メタデータ) (2021-12-21T10:07:55Z) - Knowledge Graph Anchored Information-Extraction for Domain-Specific
Insights [1.6308268213252761]
新しいドメイン内で特定の情報ニーズを満たすためにタスクベースのアプローチを使用します。
美術NLP技術の状態を構成したパイプラインを使用して、インスタンスレベルのセマンティック構造を自動的に抽出する。
論文 参考訳(メタデータ) (2021-04-18T19:28:10Z) - Editing Factual Knowledge in Language Models [51.947280241185]
本稿では,この知識を編集する手法であるKnowledgeEditorを提案する。
knowledgeeditorは計算効率が高いだけでなく、lm事前トレーニングの修正も必要としない。
2つの一般的なアーキテクチャと知識集約型タスクで、KnowledgeEditorの有効性を示します。
論文 参考訳(メタデータ) (2021-04-16T15:24:42Z) - Entity Context Graph: Learning Entity Representations
fromSemi-Structured Textual Sources on the Web [44.92858943475407]
エンティティ中心のテキスト知識ソースを処理してエンティティ埋め込みを学ぶアプローチを提案する。
私たちのアプローチから学んだ埋め込みは、(i)高品質で、既知の知識グラフベースの埋め込みに匹敵し、それらをさらに改善するために使用することができます。
論文 参考訳(メタデータ) (2021-03-29T20:52:14Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。