論文の概要: Enriching Wikidata with Linked Open Data
- arxiv url: http://arxiv.org/abs/2207.00143v1
- Date: Fri, 1 Jul 2022 01:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 13:29:36.181417
- Title: Enriching Wikidata with Linked Open Data
- Title(参考訳): Linked Open DataによるWikidataの強化
- Authors: Bohui Zhang, Filip Ilievski, Pedro Szekely
- Abstract要約: 現在のリンクされたオープンデータ(LOD)ツールは、Wikidataのような大きなグラフの強化には適していない。
本稿では、ギャップ検出、ソース選択、スキーマアライメント、セマンティックバリデーションを含む新しいワークフローを提案する。
実験の結果,我々のワークフローは,高品質な外部LODソースからの数百万の新規ステートメントでWikidataを豊かにすることができることがわかった。
- 参考スコア(独自算出の注目度): 4.311189028205597
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large public knowledge graphs, like Wikidata, contain billions of statements
about tens of millions of entities, thus inspiring various use cases to exploit
such knowledge graphs. However, practice shows that much of the relevant
information that fits users' needs is still missing in Wikidata, while current
linked open data (LOD) tools are not suitable to enrich large graphs like
Wikidata. In this paper, we investigate the potential of enriching Wikidata
with structured data sources from the LOD cloud. We present a novel workflow
that includes gap detection, source selection, schema alignment, and semantic
validation. We evaluate our enrichment method with two complementary LOD
sources: a noisy source with broad coverage, DBpedia, and a manually curated
source with narrow focus on the art domain, Getty. Our experiments show that
our workflow can enrich Wikidata with millions of novel statements from
external LOD sources with a high quality. Property alignment and data quality
are key challenges, whereas entity alignment and source selection are
well-supported by existing Wikidata mechanisms. We make our code and data
available to support future work.
- Abstract(参考訳): Wikidataのような大規模な公開知識グラフには、数千万のエンティティに関する数十億のステートメントが含まれており、このような知識グラフを利用するさまざまなユースケースを刺激している。
しかし,現在のオープンデータ(LOD)ツールは,Wikidataのような大規模グラフの充実に適していないのに対して,ユーザのニーズに適合する関連情報の多くはいまだに不足している。
本稿では,LODクラウドからの構造化データソースによるWikidataの強化の可能性を検討する。
本稿では,ギャップ検出,ソース選択,スキーマアライメント,意味的検証を含む新たなワークフローを提案する。
我々は,広範にカバー可能なノイズソース,dbpedia,アートドメインであるgettyに焦点を絞った手動キュレーションソースの2つの補完的lodソースを用いてエンリッチメント手法を評価した。
実験の結果,我々のワークフローは,高品質な外部LODソースから数百万の新しいステートメントでWikidataを充実させることができることがわかった。
プロパティアライメントとデータ品質は重要な課題であるが、エンティティアライメントとソースセレクションは既存のWikidataメカニズムによって十分にサポートされている。
将来の作業をサポートするために、コードとデータを利用可能にします。
関連論文リスト
- KIF: A Wikidata-Based Framework for Integrating Heterogeneous Knowledge Sources [0.45141207783683707]
我々は、異種知識ソースを仮想的に統合するためのWikidataベースのフレームワークKIFを提案する。
KIFはPythonで書かれており、オープンソースとしてリリースされている。
論文 参考訳(メタデータ) (2024-03-15T13:46:36Z) - Leveraging Wikidata's edit history in knowledge graph refinement tasks [77.34726150561087]
編集履歴は、コミュニティが何らかのファジィで分散した合意に達する過程を表す。
Wikidataで最も重要な100のクラスから、すべてのインスタンスの編集履歴を含むデータセットを構築します。
タイプ予測タスクのための知識グラフ埋め込みモデルにおいて,この編集履歴情報を活用する2つの新しい手法を提案し,評価する。
論文 参考訳(メタデータ) (2022-10-27T14:32:45Z) - Does Wikidata Support Analogical Reasoning? [17.68704739786042]
Wikidataの知識が類推的推論をサポートするかどうかを検討する。
Wikidataは類似分類のためのデータ作成に利用できることを示す。
我々は、Wikidataからアナログを抽出する自動手法を導くためのメトリクスセットを考案した。
論文 参考訳(メタデータ) (2022-10-02T20:46:52Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - Survey on English Entity Linking on Wikidata [3.8289963781051415]
Wikidataはコミュニティ主導の多言語知識グラフである。
現在のWikidata固有のEntity Linkingデータセットは、DBpediaのような他の知識グラフのためのスキームとアノテーションスキームの違いはない。
ほとんど全てのアプローチはラベルや時々記述のような特定の特性を用いるが、ハイパーリレーショナル構造のような特性は無視する。
論文 参考訳(メタデータ) (2021-12-03T16:02:42Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Commonsense Knowledge in Wikidata [3.8359194344969807]
本稿では,既存のコモンセンスソースを補完するコモンセンス知識をウィキデータが保持しているかどうかを検討する。
我々はWikidataとConceptNetの関係をマッピングし、Wikidata-CSを既存の統合コモンセンスグラフに統合する。
論文 参考訳(メタデータ) (2020-08-18T18:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。