論文の概要: Complementing GPT-3 with Few-Shot Sequence-to-Sequence Semantic Parsing
over Wikidata
- arxiv url: http://arxiv.org/abs/2305.14202v1
- Date: Tue, 23 May 2023 16:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 14:52:53.161449
- Title: Complementing GPT-3 with Few-Shot Sequence-to-Sequence Semantic Parsing
over Wikidata
- Title(参考訳): wikidataを用いたsequence-to-sequenceセマンティクス解析によるgpt-3の補完
- Authors: Silei Xu, Theo Culhane, Meng-Hsi Wu, Sina J. Semnani, Monica S. Lam
- Abstract要約: 本稿では,Wikidataの高品質な質問応答ベンチマークであるWikiWebQuestionsを紹介する。
この新しいベンチマークでは、SPARQLアノテーションを使用した現実世界の人間データを使用して、大規模言語モデルとのより正確な比較を可能にしている。
GPT-3とセマンティクスを組み合わせて検証結果と有意な推測を組み合わせ,有効解が得られることを示す。
- 参考スコア(独自算出の注目度): 4.2593422688204585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the largest knowledge base, Wikidata is a massive source of knowledge,
complementing large language models with well-structured data. In this paper,
we present WikiWebQuestions, a high-quality knowledge base question answering
benchmark for Wikidata. This new benchmark uses real-world human data with
SPARQL annotation to facilitate a more accurate comparison with large language
models utilizing the up-to-date answers from Wikidata. Additionally, a baseline
for this benchmark is established with an effective training data synthesis
methodology and WikiSP, a Seq2Seq semantic parser, that handles large noisy
knowledge graphs. Experimental results illustrate the effectiveness of this
methodology, achieving 69% and 59% answer accuracy in the dev set and test set,
respectively. We showed that we can pair semantic parsers with GPT-3 to provide
a combination of verifiable results and qualified guesses that can provide
useful answers to 97% of the questions in the dev set of our benchmark.
- Abstract(参考訳): 最大の知識基盤として、Wikidataは膨大な知識源であり、構造化されたデータで大きな言語モデルを補完する。
本稿では,Wikidataの高品質な知識ベース質問応答ベンチマークであるWikiWebQuestionsを紹介する。
今回のベンチマークでは、Wikidataの最新の回答を利用した大規模言語モデルとのより正確な比較を容易にするために、SPARQLアノテーションを使用した現実世界の人間データを使用する。
さらに、このベンチマークのベースラインは、効果的なトレーニングデータ合成方法論と、大きなノイズの多い知識グラフを処理するseq2seqセマンティックパーサであるwikispで確立されている。
実験結果は,開発セットとテストセットでそれぞれ69%,回答精度59%を達成し,本手法の有効性を実証した。
GPT-3とセマンティックパーザを組み合わせて検証結果と有資格推定の組み合わせを提供することで,ベンチマークのディベロップメントセットの97%に有用な回答が得られることを示した。
関連論文リスト
- Class Order Disorder in Wikidata and First Fixes [0.0]
SPARQLクエリはWikidataに対して評価され、いくつかの違反や疑わしい情報の頻度を決定する。
より優れたツールやWikidataコミュニティの関与にもかかわらず、この問題にどのように対処するかについて提案されている。
論文 参考訳(メタデータ) (2024-11-23T13:15:13Z) - KIF: A Wikidata-Based Framework for Integrating Heterogeneous Knowledge Sources [0.45141207783683707]
我々は、異種知識ソースを仮想的に統合するためのWikidataベースのフレームワークKIFを提案する。
KIFはPythonで書かれており、オープンソースとしてリリースされている。
論文 参考訳(メタデータ) (2024-03-15T13:46:36Z) - KGConv, a Conversational Corpus grounded in Wikidata [6.451914896767135]
KGConvは、Wikidataの事実に根ざした、71kの会話の大規模なコーパスである。
テンプレート,ヒューマンアノテーション,手作りルール,質問書き換えニューラルモデルを用いて,対応する質問の複数の変種(12件平均12件)を提供する。
KGConvは、Wikidataのトリプルからのシングルターン質問生成、質問書き換え、会話からの質問応答、知識グラフからの質問応答、クイズ生成など、他の世代や分析タスクにも利用できる。
論文 参考訳(メタデータ) (2023-08-29T13:35:51Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - Mapping Process for the Task: Wikidata Statements to Text as Wikipedia
Sentences [68.8204255655161]
本稿では,ウィキデータ文をウィキペディアのプロジェクト用自然言語テキスト(WS2T)に変換するタスクに対して,文レベルでのマッピングプロセスを提案する。
主なステップは、文を整理し、四つ組と三つ組のグループとして表現し、それらを英語のウィキペディアで対応する文にマッピングすることである。
文構造解析,ノイズフィルタリング,および単語埋め込みモデルに基づく文成分間の関係について,出力コーパスの評価を行った。
論文 参考訳(メタデータ) (2022-10-23T08:34:33Z) - WikiDes: A Wikipedia-Based Dataset for Generating Short Descriptions
from Paragraphs [66.88232442007062]
ウィキデックスはウィキペディアの記事の短い記述を生成するデータセットである。
データセットは、6987のトピックに関する80万以上の英語サンプルで構成されている。
本論文は,ウィキペディアとウィキデータに多くの記述が欠落していることから,実際的な影響を示すものである。
論文 参考訳(メタデータ) (2022-09-27T01:28:02Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - QALD-9-plus: A Multilingual Dataset for Question Answering over DBpedia
and Wikidata Translated by Native Speakers [68.9964449363406]
私たちは8つの言語に高品質な質問の翻訳を導入することで、最も人気のあるKGQAベンチマークの1つ、QALD-9を拡張します。
アルメニア語、ウクライナ語、リトアニア語、バシキル語、ベラルーシ語という5つの言語は、これまでにKGQA研究コミュニティで最高の知識について検討されたことがなかった。
論文 参考訳(メタデータ) (2022-01-31T22:19:55Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Creating and Querying Personalized Versions of Wikidata on a Laptop [0.7449724123186383]
KGTK Kypherは、ユーザがノートパソコン上でパーソナライズされたWikidataの変種を作成できるクエリ言語とプロセッサである。
我々は、Kypherがラップトップ上の完全なWikidata KG上で実行可能にする分析のタイプを示すユースケースをいくつか提示する。
論文 参考訳(メタデータ) (2021-08-06T00:00:33Z) - Commonsense Knowledge in Wikidata [3.8359194344969807]
本稿では,既存のコモンセンスソースを補完するコモンセンス知識をウィキデータが保持しているかどうかを検討する。
我々はWikidataとConceptNetの関係をマッピングし、Wikidata-CSを既存の統合コモンセンスグラフに統合する。
論文 参考訳(メタデータ) (2020-08-18T18:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。