論文の概要: Creating and Querying Personalized Versions of Wikidata on a Laptop
- arxiv url: http://arxiv.org/abs/2108.07119v2
- Date: Wed, 18 Aug 2021 06:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-22 15:47:55.745213
- Title: Creating and Querying Personalized Versions of Wikidata on a Laptop
- Title(参考訳): ラップトップ上のwikidataのパーソナライズされたバージョンの作成とクエリ
- Authors: Hans Chalupsky, Pedro Szekely, Filip Ilievski, Daniel Garijo and
Kartik Shenoy
- Abstract要約: KGTK Kypherは、ユーザがノートパソコン上でパーソナライズされたWikidataの変種を作成できるクエリ言語とプロセッサである。
我々は、Kypherがラップトップ上の完全なWikidata KG上で実行可能にする分析のタイプを示すユースケースをいくつか提示する。
- 参考スコア(独自算出の注目度): 0.7449724123186383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Application developers today have three choices for exploiting the knowledge
present in Wikidata: they can download the Wikidata dumps in JSON or RDF
format, they can use the Wikidata API to get data about individual entities, or
they can use the Wikidata SPARQL endpoint. None of these methods can support
complex, yet common, query use cases, such as retrieval of large amounts of
data or aggregations over large fractions of Wikidata. This paper introduces
KGTK Kypher, a query language and processor that allows users to create
personalized variants of Wikidata on a laptop. We present several use cases
that illustrate the types of analyses that Kypher enables users to run on the
full Wikidata KG on a laptop, combining data from external resources such as
DBpedia. The Kypher queries for these use cases run much faster on a laptop
than the equivalent SPARQL queries on a Wikidata clone running on a powerful
server with 24h time-out limits.
- Abstract(参考訳): WikidataダンプをJSONまたはRDF形式でダウンロードしたり、Wikidata APIを使用して個々のエンティティのデータを取得するか、Wikidata SPARQLエンドポイントを使用することができる。
これらの手法のどれも、大量のデータの検索やWikidataの膨大な部分の集約といった、複雑で一般的なクエリユースケースをサポートできない。
KGTK Kypherは、ユーザがノートパソコン上でパーソナライズされたWikidataの変種を作成できるクエリ言語とプロセッサである。
我々は,Kypherがユーザに対して,DBpediaなどの外部リソースのデータを組み合わせて,ラップトップ上の完全なWikidata KG上で実行可能にする分析のタイプを示すユースケースをいくつか提示する。
これらのユースケースに対するKypherクエリは、24時間タイムアウト制限のある強力なサーバ上で実行されるWikidataクローン上の同等のSPARQLクエリよりも、ラップトップ上ではるかに高速に実行される。
関連論文リスト
- KIF: A Wikidata-Based Framework for Integrating Heterogeneous Knowledge Sources [0.45141207783683707]
我々は、異種知識ソースを仮想的に統合するためのWikidataベースのフレームワークKIFを提案する。
KIFはPythonで書かれており、オープンソースとしてリリースされている。
論文 参考訳(メタデータ) (2024-03-15T13:46:36Z) - Fine-tuned LLMs Know More, Hallucinate Less with Few-Shot
Sequence-to-Sequence Semantic Parsing over Wikidata [6.716263690738313]
本稿では,Wikidataの質の高い質問応答ベンチマークであるWikiWebQuestionsを提案する。
現実世界のデータとSPARQLで構成されている。
IDの代わりにユニークなドメイン名とプロパティ名を使用するように、SPARQLを修正します。
論文 参考訳(メタデータ) (2023-05-23T16:20:43Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - Mapping Process for the Task: Wikidata Statements to Text as Wikipedia
Sentences [68.8204255655161]
本稿では,ウィキデータ文をウィキペディアのプロジェクト用自然言語テキスト(WS2T)に変換するタスクに対して,文レベルでのマッピングプロセスを提案する。
主なステップは、文を整理し、四つ組と三つ組のグループとして表現し、それらを英語のウィキペディアで対応する文にマッピングすることである。
文構造解析,ノイズフィルタリング,および単語埋め込みモデルに基づく文成分間の関係について,出力コーパスの評価を行った。
論文 参考訳(メタデータ) (2022-10-23T08:34:33Z) - Enriching Wikidata with Linked Open Data [4.311189028205597]
現在のリンクされたオープンデータ(LOD)ツールは、Wikidataのような大きなグラフの強化には適していない。
本稿では、ギャップ検出、ソース選択、スキーマアライメント、セマンティックバリデーションを含む新しいワークフローを提案する。
実験の結果,我々のワークフローは,高品質な外部LODソースからの数百万の新規ステートメントでWikidataを豊かにすることができることがわかった。
論文 参考訳(メタデータ) (2022-07-01T01:50:24Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - A Benchmark for Generalizable and Interpretable Temporal Question
Answering over Knowledge Bases [67.33560134350427]
TempQA-WDは時間的推論のためのベンチマークデータセットである。
Wikidataは、最も頻繁にキュレーションされ、公開されている知識ベースである。
論文 参考訳(メタデータ) (2022-01-15T08:49:09Z) - Survey on English Entity Linking on Wikidata [3.8289963781051415]
Wikidataはコミュニティ主導の多言語知識グラフである。
現在のWikidata固有のEntity Linkingデータセットは、DBpediaのような他の知識グラフのためのスキームとアノテーションスキームの違いはない。
ほとんど全てのアプローチはラベルや時々記述のような特定の特性を用いるが、ハイパーリレーショナル構造のような特性は無視する。
論文 参考訳(メタデータ) (2021-12-03T16:02:42Z) - A Chinese Multi-type Complex Questions Answering Dataset over Wikidata [45.31495982252219]
複雑な知識ベース質問回答は、過去10年間に人気のある研究分野である。
最近の公開データセットはこの分野で結果を奨励しているが、ほとんど英語に限られている。
最先端のKBQAモデルは、最も人気のある現実世界の知識基盤の1つであるWikidataで訓練されている。
CLC-QuADは,これらの課題に対処するために,ウィキデータ上での最初の大規模複雑な中国語意味解析データセットである。
論文 参考訳(メタデータ) (2021-11-11T07:39:16Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Wikidata on MARS [0.20305676256390934]
一般化されたプロパティグラフの形式的データモデルとして,マルチ分散リレーショナル構造 (MARS) が提案されている。
MARPLはプロパティグラフ上の推論ルールを記述するための有用なルールベースのロジックである。
Wikidataは、Wikidataのデータ型を追加する拡張MARSでモデル化することができる。
論文 参考訳(メタデータ) (2020-08-14T22:58:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。