論文の概要: BiRdQA: A Bilingual Dataset for Question Answering on Tricky Riddles
- arxiv url: http://arxiv.org/abs/2109.11087v1
- Date: Thu, 23 Sep 2021 00:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 15:05:54.131738
- Title: BiRdQA: A Bilingual Dataset for Question Answering on Tricky Riddles
- Title(参考訳): BiRdQA:トリッキーリドルに関する質問回答のためのバイリンガルデータセット
- Authors: Yunxiang Zhang, Xiaojun Wan
- Abstract要約: バイリンガル質問応答データセットであるBiRdQAを導入する。
既存のモノリンガルQAモデルとマルチリンガルQAモデルは、我々のデータセットではうまく機能せず、機械が難解な謎を解くために人間を倒すには長い道のりがあることを示している。
- 参考スコア(独自算出の注目度): 82.63394952538292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A riddle is a question or statement with double or veiled meanings, followed
by an unexpected answer. Solving riddle is a challenging task for both machine
and human, testing the capability of understanding figurative, creative natural
language and reasoning with commonsense knowledge. We introduce BiRdQA, a
bilingual multiple-choice question answering dataset with 6614 English riddles
and 8751 Chinese riddles. For each riddle-answer pair, we provide four
distractors with additional information from Wikipedia. The distractors are
automatically generated at scale with minimal bias. Existing monolingual and
multilingual QA models fail to perform well on our dataset, indicating that
there is a long way to go before machine can beat human on solving tricky
riddles. The dataset has been released to the community.
- Abstract(参考訳): 謎は、二重の意味または拒否された意味を持つ質問または文であり、そして予期せぬ答えである。
謎を解くことは、機械と人間の両方にとって困難な課題であり、比定的で創造的な自然言語や常識的な知識を持つ推論を理解する能力をテストする。
6614個の英語のリドルと8751個の中国語のリドルからなる,多言語多言語質問応答データセットであるbirdqaを紹介する。
それぞれの解答に対して、ウィキペディアから追加情報を4つ提供します。
気晴らしは、最小限のバイアスで自動的に生成される。
既存のモノリンガルQAモデルとマルチリンガルQAモデルは、我々のデータセットではうまく機能せず、機械が難解な謎を解くために人間を倒すには長い道のりがあることを示している。
データセットはコミュニティにリリースされている。
関連論文リスト
- Can a Multichoice Dataset be Repurposed for Extractive Question Answering? [52.28197971066953]
我々は,Multiple-choice Question answering (MCQA)のために設計されたBandarkar et al.(Bandarkar et al., 2023)を再利用した。
本稿では,英語と現代標準アラビア語(MSA)のためのガイドラインと並列EQAデータセットを提案する。
私たちの目標は、ベレベレにおける120以上の言語変異に対して、他者が私たちのアプローチを適応できるようにすることです。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - WikiWhy: Answering and Explaining Cause-and-Effect Questions [62.60993594814305]
自然言語で答えが正しい理由を説明するために構築されたQAデータセットであるWikiWhyを紹介する。
WikiWhyには、ウィキペディアのさまざまなトピックの事実に基づいて、9000以上の「なぜ」質問回答の3つ組が含まれている。
GPT-3ベースラインは、エンドツーエンドの回答と説明条件において、人間の評価された正しさを38.7%しか達成していない。
論文 参考訳(メタデータ) (2022-10-21T17:59:03Z) - CC-Riddle: A Question Answering Dataset of Chinese Character Riddles [51.41044750575767]
漢字のリドルは、中国語特有の文化芸能の一形態である。
CC-Riddle という名前の textbf Chinese textbfCharacter riddle データセットを構築した。
論文 参考訳(メタデータ) (2022-06-28T06:23:13Z) - A Puzzle-Based Dataset for Natural Language Inference [0.9594432031144714]
このデータセットには、パズル、ニー、ニーブ、ゼブラパズルという3つの領域の自然言語の論理パズルが含まれている。
それぞれのパズルは、テキストに現れる関係と個人に基づいて生成できるアトミックな質問の集合全体と関連付けられている。
論文 参考訳(メタデータ) (2021-12-10T18:53:06Z) - RiddleSense: Answering Riddle Questions as Commonsense Reasoning [35.574564653690594]
RiddleSenseは、高階コモンセンス推論モデルをベンチマークするための新しい複数選択質問回答チャレンジである。
riddlesenseは、リドルスタイルのコモンセンス質問応答のための、最初の大規模なデータセットである。
我々は,様々な推論モデルを体系的に評価し,最高の教師付きモデルと人間のパフォーマンスの間には大きなギャップがあることを指摘した。
論文 参考訳(メタデータ) (2021-01-02T05:28:15Z) - XOR QA: Cross-lingual Open-Retrieval Question Answering [75.20578121267411]
この作業は、言語横断的な設定に応答するオープン検索の質問を拡張します。
我々は,同じ回答を欠いた質問に基づいて,大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2020-10-22T16:47:17Z) - MKQA: A Linguistically Diverse Benchmark for Multilingual Open Domain
Question Answering [6.452012363895865]
このデータセットは、質問応答を評価するために、現在最も広い範囲の言語を提供する。
生成的および抽出的質問応答のための様々な最先端手法とベースラインをベンチマークする。
結果は、このデータセットが英語でも、特に低リソース言語では挑戦的であることを示している。
論文 参考訳(メタデータ) (2020-07-30T03:33:46Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。