論文の概要: LiveQA: A Question Answering Dataset over Sports Live
- arxiv url: http://arxiv.org/abs/2010.00526v1
- Date: Thu, 1 Oct 2020 16:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:12:05.774539
- Title: LiveQA: A Question Answering Dataset over Sports Live
- Title(参考訳): liveqa:スポーツライブでデータセットに答える質問
- Authors: Qianying Liu, Sicong Jiang, Yizhong Wang and Sujian Li
- Abstract要約: プレイバイプレイのライブ放送から構築した質問応答データセットであるLiveQAを紹介する。
NBAの1,670以上の試合で、人間のコメンテーターによって書かれた117kの多重選択質問が含まれている。
- 参考スコア(独自算出の注目度): 23.496554508109902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce LiveQA, a new question answering dataset
constructed from play-by-play live broadcast. It contains 117k multiple-choice
questions written by human commentators for over 1,670 NBA games, which are
collected from the Chinese Hupu (https://nba.hupu.com/games) website. Derived
from the characteristics of sports games, LiveQA can potentially test the
reasoning ability across timeline-based live broadcasts, which is challenging
compared to the existing datasets. In LiveQA, the questions require
understanding the timeline, tracking events or doing mathematical computations.
Our preliminary experiments show that the dataset introduces a challenging
problem for question answering models, and a strong baseline model only
achieves the accuracy of 53.1\% and cannot beat the dominant option rule. We
release the code and data of this paper for future research.
- Abstract(参考訳): 本稿では,遊びごとのライブ放送から構築した質問応答データセットであるLiveQAを紹介する。
NBAで1,670試合以上の解説者によって書かれた117kの多重選択質問が中国フプ(https://nba.hupu.com/games)のウェブサイトから集められている。
スポーツゲームの特徴から派生したLiveQAは、既存のデータセットと比較して難しいタイムラインベースのライブ放送における推論能力をテストすることができる。
LiveQAでは、質問はタイムラインを理解し、イベントを追跡し、数学的計算を行う必要がある。
予備実験により,本データセットは問合せモデルに挑戦的な問題を導入し,強基準モデルでは53.1\%の精度しか達成できず,支配的なオプションルールに勝てないことがわかった。
今後の研究のために,本論文のコードとデータをリリースする。
関連論文リスト
- Sports-QA: A Large-Scale Video Question Answering Benchmark for Complex
and Professional Sports [90.79212954022218]
スポーツビデオQAタスク用に特別に設計された最初のデータセットであるSports-QAを紹介する。
Sports-QAデータセットには、説明、時系列、因果関係、反事実条件など、さまざまな種類の質問が含まれている。
質問応答のための時間的情報の特定の尺度に自動的にフォーカスできる新しいオートフォーカス変換器(AFT)を提案する。
論文 参考訳(メタデータ) (2024-01-03T02:22:34Z) - PCoQA: Persian Conversational Question Answering Dataset [12.07607688189035]
PCoQAデータセットは、9,026のコンテキスト駆動質問を含む情報検索ダイアログを含むリソースである。
PCoQAは、以前の質問応答データセットと比較して、新しい課題を示すように設計されている。
本稿では,PCoQAデータセットを包括的に提示するだけでなく,各種ベンチマークモデルの性能も報告する。
論文 参考訳(メタデータ) (2023-12-07T15:29:34Z) - NuScenes-QA: A Multi-modal Visual Question Answering Benchmark for
Autonomous Driving Scenario [77.14723238359318]
NuScenesQAは、自動運転シナリオにおけるVQAの最初のベンチマークであり、34Kの視覚シーンと460Kの質問応答ペアを含んでいる。
既存の3D検出アノテーションを利用してシーングラフと質問テンプレートを手動で作成する。
先進的な3D検出とVQA技術を用いた一連のベースラインを開発する。
論文 参考訳(メタデータ) (2023-05-24T07:40:50Z) - Possible Stories: Evaluating Situated Commonsense Reasoning under
Multiple Possible Scenarios [8.553766123004682]
本研究は,複数の質問に対して,候補解と同じ結末の集合を問うことで,この課題を補足するものである。
私たちのデータセットは、英語の1.3Kストーリーテキストよりも4.5K以上の質問で構成されています。
論文 参考訳(メタデータ) (2022-09-16T07:38:51Z) - Learning to Answer Visual Questions from Web Videos [89.71617065426146]
我々は手動のアノテーションを回避し、ビデオ質問応答のための大規模なトレーニングデータセットを生成することを提案する。
我々は、テキストデータに基づいて訓練された質問生成変換器を利用して、書き起こされたビデオナレーションから質問応答ペアを生成する。
詳細な評価のために、言語バイアスの低減と高品質なマニュアルアノテーションを備えた新しいビデオQAデータセットiVQAを紹介する。
論文 参考訳(メタデータ) (2022-05-10T16:34:26Z) - Video Question Answering: Datasets, Algorithms and Challenges [99.9179674610955]
Video Question Answering (VideoQA) は、与えられたビデオに応じて自然言語の質問に答えることを目的としている。
本稿では、データセット、アルゴリズム、ユニークな課題に焦点を当てた、ビデオQAの明確な分類と包括的分析を提供する。
論文 参考訳(メタデータ) (2022-03-02T16:34:09Z) - SituatedQA: Incorporating Extra-Linguistic Contexts into QA [7.495151447459443]
SituatedQA(SituatedQA)は,時間的・地理的文脈を考慮に入れた質問に対して,システムが正しい回答を提示しなければならない,オープン検索型QAデータセットである。
質問を求める情報のかなりの割合は、文脈に依存した回答であることがわかった。
我々の研究は、既存のモデルが頻繁に更新される、あるいは珍しい場所から回答を得るのに苦労していることを示している。
論文 参考訳(メタデータ) (2021-09-13T17:53:21Z) - A Dataset for Answering Time-Sensitive Questions [88.95075983560331]
時間とは、我々の物理的世界において重要な次元である。多くの事実が時間に関して進化することができる。
時間次元を考慮し、既存のQAモデルに時間とともに推論する権限を与えることが重要です。
既存のQAデータセットには、時間に敏感な質問がほとんどないため、モデルの時間的推論能力の診断やベンチマークには適さない。
論文 参考訳(メタデータ) (2021-08-13T16:42:25Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - What Gives the Answer Away? Question Answering Bias Analysis on Video QA
Datasets [40.64071905569975]
ビデオQAデータセットの回答バイアスは、QAアーティファクトに過度に適合するように、マルチモーダルモデルを誤解させる可能性がある。
私たちの研究では、アノテータや質問の種類からバイアスが生まれます。
また,ビデオQAデータセットのQAバイアスを低減できることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。