論文の概要: ForecastQA: A Question Answering Challenge for Event Forecasting with
Temporal Text Data
- arxiv url: http://arxiv.org/abs/2005.00792v4
- Date: Tue, 8 Jun 2021 02:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 12:08:40.881517
- Title: ForecastQA: A Question Answering Challenge for Event Forecasting with
Temporal Text Data
- Title(参考訳): ForecastQA: 時間的テキストデータを用いたイベント予測のための質問応答
- Authors: Woojeong Jin, Rahul Khanna, Suji Kim, Dong-Ho Lee, Fred Morstatter,
Aram Galstyan, Xiang Ren
- Abstract要約: イベント予測は、人間が常に未来に向けて計画しようとするため、難しいが重要な課題である。
タスクを定式化し、データセットを構築し、大量の構造化されていないテキストデータを用いたイベント予測手法を開発するためのベンチマークを提供する。
BERTベースのモデルを用いてForecastQA実験を行い、データセット上で最高のモデルが60.1%の精度で達成していることを確認した。
- 参考スコア(独自算出の注目度): 43.400630267599084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event forecasting is a challenging, yet important task, as humans seek to
constantly plan for the future. Existing automated forecasting studies rely
mostly on structured data, such as time-series or event-based knowledge graphs,
to help predict future events. In this work, we aim to formulate a task,
construct a dataset, and provide benchmarks for developing methods for event
forecasting with large volumes of unstructured text data. To simulate the
forecasting scenario on temporal news documents, we formulate the problem as a
restricted-domain, multiple-choice, question-answering (QA) task. Unlike
existing QA tasks, our task limits accessible information, and thus a model has
to make a forecasting judgement. To showcase the usefulness of this task
formulation, we introduce ForecastQA, a question-answering dataset consisting
of 10,392 event forecasting questions, which have been collected and verified
via crowdsourcing efforts. We present our experiments on ForecastQA using
BERT-based models and find that our best model achieves 60.1% accuracy on the
dataset, which still lags behind human performance by about 19%. We hope
ForecastQA will support future research efforts in bridging this gap.
- Abstract(参考訳): イベント予測は、人間が常に未来に向けて計画しようとするため、難しいが重要な課題である。
既存の自動予測研究は、時系列やイベントベースの知識グラフのような構造化データに大きく依存している。
本研究では,タスクを定式化し,データセットを構築し,大量の非構造化テキストデータを用いたイベント予測手法を開発するためのベンチマークを提供する。
時間的ニュース文書の予測シナリオをシミュレートするため、制約付きドメイン、複数選択、質問応答(QA)タスクとして問題を定式化する。
既存のQAタスクとは異なり、タスクはアクセス可能な情報を制限するため、モデルが予測判断を行う必要がある。
このタスク定式化の有用性を示すために,クラウドソーシングを通じて収集・検証された10,392のイベント予測質問からなる質問応答データセットであるForecastQAを紹介する。
我々は,bertベースのモデルを用いた予測qa実験を行い,最善のモデルがデータセット上で60.1%の精度を達成できることを確認した。
ForecastQAはこのギャップを埋めるための今後の研究活動を支援することを願っている。
関連論文リスト
- One VLM to Keep it Learning: Generation and Balancing for Data-free Continual Visual Question Answering [31.025439143093585]
VLM(Vision-Language Models)は、Webスケールのマルチモーダルデータセットを活用することで、VQA(Visual Question Answering)タスクにおいて大きな可能性を秘めている。
これらのモデルは、新しいタスクに適応する際に破滅的な忘れ物のために、継続的な学習に苦しむことが多い。
本稿では,外部モデルに頼るのではなく,VLMの言語生成能力を活用した最初のデータフリー手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T16:04:59Z) - GIFT-Eval: A Benchmark For General Time Series Forecasting Model Evaluation [90.53485251837235]
時系列基礎モデルはゼロショット予測に優れ、明示的なトレーニングなしで多様なタスクを処理する。
GIFT-Evalは、多様なデータセットに対する評価を促進するための先駆的なベンチマークである。
GIFT-Evalには、144,000の時系列と17700万のデータポイントの23のデータセットが含まれている。
論文 参考訳(メタデータ) (2024-10-14T11:29:38Z) - F-FOMAML: GNN-Enhanced Meta-Learning for Peak Period Demand Forecasting with Proxy Data [65.6499834212641]
本稿では,需要予測をメタラーニング問題として定式化し,F-FOMAMLアルゴリズムを開発した。
タスク固有のメタデータを通してドメインの類似性を考慮することにより、トレーニングタスクの数が増加するにつれて過剰なリスクが減少する一般化を改善した。
従来の最先端モデルと比較して,本手法では需要予測精度が著しく向上し,内部自動販売機データセットでは平均絶対誤差が26.24%,JD.comデータセットでは1.04%削減された。
論文 参考訳(メタデータ) (2024-06-23T21:28:50Z) - SCTc-TE: A Comprehensive Formulation and Benchmark for Temporal Event Forecasting [63.01035584154509]
私たちは完全に自動化されたパイプラインを開発し、約0.6百万のニュース記事からMidEast-TEという大規模なデータセットを構築しました。
このデータセットは、2015年から2022年まで、主に中東地域での協力と紛争イベントに焦点を当てている。
そこで本稿では,SCTc-TE予測にローカルコンテキストとグローバルコンテキストの両方を活用可能なLoGoを提案する。
論文 参考訳(メタデータ) (2023-12-02T07:40:21Z) - Forecasting Future World Events with Neural Networks [68.43460909545063]
Autocastは数千の予測質問と付随するニュースコーパスを含むデータセットである。
ニュースコーパスは日付によって整理され、人間が過去の予測を行った条件を正確にシミュレートすることができる。
予測タスクで言語モデルをテストし、パフォーマンスが人間専門家のベースラインよりはるかに低いことを確認します。
論文 参考訳(メタデータ) (2022-06-30T17:59:14Z) - CCQA: A New Web-Scale Question Answering Dataset for Model Pre-Training [21.07506671340319]
本稿では,Common Crawlプロジェクトに基づく質問応答データセットを提案する。
我々は、約1億3000万の多言語問合せ対を抽出し、約6000万の英語データポイントを抽出した。
これまでに見つからなかった自然QAペア数を用いて、質問応答タスクのための大規模ドメイン事前学習の可能性を示すために、人気のある言語モデルを事前訓練する。
論文 参考訳(メタデータ) (2021-10-14T21:23:01Z) - Few-shot Learning for Time-series Forecasting [40.58524521473793]
そこで本研究では,対象タスクにおける時系列の今後の価値を予測できる数ショット学習手法を提案する。
本モデルは,対象タスクとは異なる複数のトレーニングタスクにおいて時系列データを用いて訓練される。
論文 参考訳(メタデータ) (2020-09-30T01:32:22Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。