論文の概要: Wikidated 1.0: An Evolving Knowledge Graph Dataset of Wikidata's
Revision History
- arxiv url: http://arxiv.org/abs/2112.05003v1
- Date: Thu, 9 Dec 2021 15:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:20:23.086415
- Title: Wikidated 1.0: An Evolving Knowledge Graph Dataset of Wikidata's
Revision History
- Title(参考訳): Wikidated 1.0:Wikidataのリビジョン履歴の知識グラフデータセットの進化
- Authors: Lukas Schmelzeisen, Corina Dima, Steffen Staab
- Abstract要約: Wikidataの完全なリビジョン履歴のデータセットであるWikidated 1.0を提示する。
私たちの知識を最大限に活用するために、それは進化する知識グラフの最初の大きなデータセットを構成する。
- 参考スコア(独自算出の注目度): 5.727994421498849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wikidata is the largest general-interest knowledge base that is openly
available. It is collaboratively edited by thousands of volunteer editors and
has thus evolved considerably since its inception in 2012. In this paper, we
present Wikidated 1.0, a dataset of Wikidata's full revision history, which
encodes changes between Wikidata revisions as sets of deletions and additions
of RDF triples. To the best of our knowledge, it constitutes the first large
dataset of an evolving knowledge graph, a recently emerging research subject in
the Semantic Web community. We introduce the methodology for generating
Wikidated 1.0 from dumps of Wikidata, discuss its implementation and
limitations, and present statistical characteristics of the dataset.
- Abstract(参考訳): Wikidataは、一般公開されている最大の一般向け知識ベースである。
何千人ものボランティア編集者が共同編集し、2012年の開始以来大きく進化してきた。
本稿では、Wikidataの完全改訂履歴のデータセットであるWikidated 1.0を紹介し、Wikidataリビジョンを削除セットとRDFトリプルの追加としてエンコードする。
私たちの知る限りでは、semantic webコミュニティで最近登場した研究テーマである、進化する知識グラフの最初の大きなデータセットを構成する。
ウィキデータのダンプからwikidated 1.0を生成する手法を紹介し,その実装と限界について論じ,データセットの統計的特徴を示す。
関連論文リスト
- Towards a Brazilian History Knowledge Graph [50.26735825937335]
ブラジル歴史辞典(DHBB)とウィキペディア/ウィキデータに基づくブラジルの歴史に関する知識グラフを構築した。
DHBBに記述されている多くの用語/エンティティがWikidataに対応する概念(またはQ項目)を持っていないことを示す。
論文 参考訳(メタデータ) (2024-03-28T22:05:32Z) - Wikidata as a seed for Web Extraction [4.273966905160028]
複数のWebドメインで公開された新しい事実を識別・抽出できるフレームワークを提案する。
我々は,テキストコレクションから事実を抽出し,Webページから事実を抽出するためのアイデアから着想を得た。
実験の結果,F1スコアでの平均性能は84.07であることがわかった。
論文 参考訳(メタデータ) (2024-01-15T16:35:52Z) - Leveraging Wikidata's edit history in knowledge graph refinement tasks [77.34726150561087]
編集履歴は、コミュニティが何らかのファジィで分散した合意に達する過程を表す。
Wikidataで最も重要な100のクラスから、すべてのインスタンスの編集履歴を含むデータセットを構築します。
タイプ予測タスクのための知識グラフ埋め込みモデルにおいて,この編集履歴情報を活用する2つの新しい手法を提案し,評価する。
論文 参考訳(メタデータ) (2022-10-27T14:32:45Z) - Mapping Process for the Task: Wikidata Statements to Text as Wikipedia
Sentences [68.8204255655161]
本稿では,ウィキデータ文をウィキペディアのプロジェクト用自然言語テキスト(WS2T)に変換するタスクに対して,文レベルでのマッピングプロセスを提案する。
主なステップは、文を整理し、四つ組と三つ組のグループとして表現し、それらを英語のウィキペディアで対応する文にマッピングすることである。
文構造解析,ノイズフィルタリング,および単語埋め込みモデルに基づく文成分間の関係について,出力コーパスの評価を行った。
論文 参考訳(メタデータ) (2022-10-23T08:34:33Z) - WikiDes: A Wikipedia-Based Dataset for Generating Short Descriptions
from Paragraphs [66.88232442007062]
ウィキデックスはウィキペディアの記事の短い記述を生成するデータセットである。
データセットは、6987のトピックに関する80万以上の英語サンプルで構成されている。
本論文は,ウィキペディアとウィキデータに多くの記述が欠落していることから,実際的な影響を示すものである。
論文 参考訳(メタデータ) (2022-09-27T01:28:02Z) - Enriching Wikidata with Linked Open Data [4.311189028205597]
現在のリンクされたオープンデータ(LOD)ツールは、Wikidataのような大きなグラフの強化には適していない。
本稿では、ギャップ検出、ソース選択、スキーマアライメント、セマンティックバリデーションを含む新しいワークフローを提案する。
実験の結果,我々のワークフローは,高品質な外部LODソースからの数百万の新規ステートメントでWikidataを豊かにすることができることがわかった。
論文 参考訳(メタデータ) (2022-07-01T01:50:24Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - Survey on English Entity Linking on Wikidata [3.8289963781051415]
Wikidataはコミュニティ主導の多言語知識グラフである。
現在のWikidata固有のEntity Linkingデータセットは、DBpediaのような他の知識グラフのためのスキームとアノテーションスキームの違いはない。
ほとんど全てのアプローチはラベルや時々記述のような特定の特性を用いるが、ハイパーリレーショナル構造のような特性は無視する。
論文 参考訳(メタデータ) (2021-12-03T16:02:42Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Commonsense Knowledge in Wikidata [3.8359194344969807]
本稿では,既存のコモンセンスソースを補完するコモンセンス知識をウィキデータが保持しているかどうかを検討する。
我々はWikidataとConceptNetの関係をマッピングし、Wikidata-CSを既存の統合コモンセンスグラフに統合する。
論文 参考訳(メタデータ) (2020-08-18T18:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。