論文の概要: mOKB6: A Multilingual Open Knowledge Base Completion Benchmark
- arxiv url: http://arxiv.org/abs/2211.06959v1
- Date: Sun, 13 Nov 2022 17:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:31:17.236327
- Title: mOKB6: A Multilingual Open Knowledge Base Completion Benchmark
- Title(参考訳): mOKB6: 多言語オープンな知識ベースコンプリートベンチマーク
- Authors: Shubham Mittal, Keshav Kolluru, Soumen Chakrabarti, Mausam
- Abstract要約: オープンナレッジベースコンプリート(KBC)の研究は、これまで英語のようなリソース豊富な言語に限られてきた。
ウィキペディアの事実を6つの言語で記述した,mOKB6と呼ばれる最初の多言語オープンKBCデータセットを構築した。
- 参考スコア(独自算出の注目度): 38.91023041725193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated completion of open knowledge bases (KBs), which are constructed
from triples of the form (subject phrase, relation phrase, object phrase)
obtained via open information extraction (IE) from text, is useful for
discovering novel facts that may not directly be present in the text. However,
research in open knowledge base completion (KBC) has so far been limited to
resource-rich languages like English. Using the latest advances in multilingual
open IE, we construct the first multilingual open KBC dataset, called mOKB6,
that contains facts from Wikipedia in six languages (including English).
Improving the previous open KB construction pipeline by doing multilingual
coreference resolution and keeping only entity-linked triples, we create a
dense open KB. We experiment with several baseline models that have been
proposed for both open and closed KBs and observe a consistent benefit of using
knowledge gained from other languages. The dataset and accompanying code will
be made publicly available.
- Abstract(参考訳): テキストからオープン情報抽出(IE)によって得られる3つの形(対象語句、関係語句、対象語句)から構築されたオープン知識ベース(KB)の自動補完は、テキストに直接存在しない可能性のある新しい事実を発見するのに有用である。
しかしながら、オープンナレッジベース補完(KBC)の研究は、これまで英語のようなリソース豊富な言語に限られてきた。
マルチ言語オープンIEの最新の進歩を利用して、Wikipediaの事実を6言語(英語を含む)で記述した、mOKB6と呼ばれる最初のマルチ言語オープンKBCデータセットを構築した。
従来のオープンKB構築パイプラインは,マルチリンガルコア参照の解決と,エンティティリンク三重項のみの保持により改善され,より密接なオープンKBが生成される。
オープンかつクローズドなKBに対して提案されたいくつかのベースラインモデルを試行し、他の言語から得られる知識を利用することによる一貫した利点を観察する。
データセットと付随するコードは公開される予定だ。
関連論文リスト
- KBLaM: Knowledge Base augmented Language Model [8.247901935078357]
外部知識を用いた大規模言語モデル拡張のための知識ベース拡張言語モデル(KBLaM)を提案する。
KBLaMは文書のコーパスから構築された知識ベースで動作し、KB内の各知識を連続キー値ベクトル対に変換する。
KBLaMの様々なタスクにおける有効性を示す実験は、質問応答やオープンエンド推論などである。
論文 参考訳(メタデータ) (2024-10-14T12:45:10Z) - KnowledGPT: Enhancing Large Language Models with Retrieval and Storage
Access on Knowledge Bases [55.942342665806656]
KnowledGPTは、様々な知識ベースで大きな言語モデルをブリッジするための包括的なフレームワークである。
検索プロセスでは思考プロンプトプログラムを使用し,KBの検索言語をコード形式で生成する。
KnowledGPTは、個々のユーザ要求に合わせて、知識をパーソナライズされたKBに格納する機能を提供する。
論文 参考訳(メタデータ) (2023-08-17T13:07:00Z) - Mapping and Cleaning Open Commonsense Knowledge Bases with Generative
Translation [14.678465723838599]
特にオープン情報抽出(OpenIE)は、テキストから構造を誘導するためにしばしば用いられる。
OpenIEには、オープンエンドで非標準化された関係が含まれており、抽出された知識の下流での搾取を困難にしている。
本稿では,言語モデルを訓練し,オープンな言語から固定的なアサーションを生成することによって,生成的翻訳による問題にアプローチすることを提案する。
論文 参考訳(メタデータ) (2023-06-22T09:42:54Z) - Cross-Lingual Question Answering over Knowledge Base as Reading
Comprehension [61.079852289005025]
知識ベース(xKBQA)に対する言語間質問応答は、提供された知識ベースとは異なる言語での質問に答えることを目的としている。
xKBQAが直面する大きな課題の1つは、データアノテーションのコストが高いことである。
読解パラダイムにおけるxKBQAの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-26T05:52:52Z) - Prix-LM: Pretraining for Multilingual Knowledge Base Construction [59.02868906044296]
複数言語による知識構築と完成のための統合フレームワークである Prix-LM を提案する。
既存の多言語KBから抽出したモノリンガルトリプルとクロスリンガルリンクの2種類の知識を利用する。
複数の言語におけるリンク予測、言語間リンク、バイリンガル語彙誘導など、標準的なエンティティ関連タスクの実験は、その効果を実証している。
論文 参考訳(メタデータ) (2021-10-16T02:08:46Z) - Automatic Construction of Sememe Knowledge Bases via Dictionaries [53.8700954466358]
セメム知識ベース(SKB)は、セメムを自然言語処理に適用することを可能にする。
ほとんどの言語はSKBを持っておらず、手作業によるSKBの構築は時間と労力がかかる。
本稿では,既存の辞書を用いてSKBを構築するための簡易かつ完全自動手法を提案する。
論文 参考訳(メタデータ) (2021-05-26T14:41:01Z) - Reasoning Over Virtual Knowledge Bases With Open Predicate Relations [85.19305347984515]
Open Predicate Query Language (OPQL) を紹介します。
OPQLは、テキストから完全にトレーニングされた仮想知識ベース(VKB)を構築する方法である。
OPQLは2つの異なるKB推論タスクにおいて、以前のVKBメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-14T01:29:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。