論文の概要: DocFinQA: A Long-Context Financial Reasoning Dataset
- arxiv url: http://arxiv.org/abs/2401.06915v2
- Date: Thu, 29 Feb 2024 19:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 20:06:02.030548
- Title: DocFinQA: A Long-Context Financial Reasoning Dataset
- Title(参考訳): DocFinQA: 長期の金融推論データセット
- Authors: Varshini Reddy, Rik Koncel-Kedziorski, Viet Dac Lai, Michael Krumdick,
Charles Lovering, Chris Tanner
- Abstract要約: 長期の財務QAタスクを導入します。
平均文脈長をFinQAの700語未満からDocFinQAの123k語に拡張する。
検索に基づくQAパイプラインと長文言語モデルに関する広範な実験を行う。
- 参考スコア(独自算出の注目度): 17.752081303855263
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: For large language models (LLMs) to be effective in the financial domain --
where each decision can have a significant impact -- it is necessary to
investigate realistic tasks and data. Financial professionals often interact
with documents that are hundreds of pages long, but most financial research
datasets only deal with short excerpts from these documents. To address this,
we introduce a long-document financial QA task. We augment 7,437 questions from
the existing FinQA dataset with the full-document context, extending the
average context length from under 700 words in FinQA to 123k words in DocFinQA.
We conduct extensive experiments over retrieval-based QA pipelines and
long-context language models. DocFinQA proves a significant challenge for even
state-of-the-art systems. We also provide a case-study on the longest documents
in DocFinQA and find that models particularly struggle on these documents.
Addressing these challenges may have a wide reaching impact across applications
where specificity and long-range contexts are critical, like gene sequences and
legal document contract analysis.
- Abstract(参考訳): 大きな言語モデル(llm)が財務ドメイン(各決定に大きな影響を与える可能性がある)で効果的になるためには、現実的なタスクやデータを調べる必要がある。
金融専門家はしばしば数百ページに及ぶ文書とやり取りするが、ほとんどの金融研究データセットはこれらの文書からの短い抜粋のみを扱う。
そのために、長期にわたる財務QAタスクを導入する。
我々は、FinQAの700ワード未満からDocFinQAの123kワードまで平均コンテキスト長を延ばし、既存のFinQAデータセットからの7,437の質問をフルドキュメントコンテキストで拡張する。
検索に基づくQAパイプラインと長文言語モデルに関する広範な実験を行う。
DocFinQAは最先端システムにおいても重要な課題である。
また、DocFinQAの最長文書のケーススタディも提供し、モデルがこれらの文書に特に苦労していることを確認する。
これらの課題に対処することは、遺伝子配列や法的文書契約分析など、特異性と長距離コンテキストが重要となるアプリケーション全体に幅広い影響を及ぼす可能性がある。
関連論文リスト
- LongFin: A Multimodal Document Understanding Model for Long Financial
Domain Documents [4.924255992661131]
最大4Kトークンをエンコード可能なマルチモーダル文書AIモデルであるLongFinを紹介する。
また、金融文書におけるいくつかの産業課題をカプセル化したLongFormsデータセットを提案する。
論文 参考訳(メタデータ) (2024-01-26T18:23:45Z) - Drilling Down into the Discourse Structure with LLMs for Long Document
Question Answering [5.022057415488129]
本稿では,文書に共通する談話構造を利用した一組の手法を提案する。
複雑なマルチホップ質問応答において,我々のアプローチをテキスト自己認識推論エージェントと組み合わせて,最高のゼロショット性能を実現する方法を示す。
論文 参考訳(メタデータ) (2023-11-22T18:22:56Z) - PDFTriage: Question Answering over Long, Structured Documents [60.96667912964659]
構造化文書をプレーンテキストとして表現することは、これらの文書をリッチな構造でユーザ精神モデルと矛盾する。
本稿では,構造や内容に基づいて,モデルがコンテキストを検索できるPDFTriageを提案する。
ベンチマークデータセットは,80以上の構造化文書に900以上の人間が生成した質問からなる。
論文 参考訳(メタデータ) (2023-09-16T04:29:05Z) - DAPR: A Benchmark on Document-Aware Passage Retrieval [64.5769639710927]
我々は,このタスクemphDocument-Aware Passage Retrieval (DAPR)を提案する。
State-of-The-Art(SoTA)パスレトリバーのエラーを分析しながら、大きなエラー(53.5%)は文書コンテキストの欠如に起因する。
提案するベンチマークにより,検索システムの開発・比較を今後行うことができる。
論文 参考訳(メタデータ) (2023-05-23T10:39:57Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - FETILDA: An Effective Framework For Fin-tuned Embeddings For Long
Financial Text Documents [14.269860621624394]
本稿では,長い文書をチャンクに分割し,事前学習したLMを用いてチャンクをベクトル表現に処理・集約するディープラーニングフレームワークを提案し,実装する。
我々は、米国銀行からの10-Kの公開開示レポートの収集と、米国企業が提出した別のレポートのデータセットについて、我々の枠組みを評価した。
論文 参考訳(メタデータ) (2022-06-14T16:14:14Z) - FinQA: A Dataset of Numerical Reasoning over Financial Data [52.7249610894623]
我々は、大量の財務文書の分析を自動化することを目的として、財務データに関する深い質問に答えることに重点を置いている。
我々は,金融専門家が作成した財務報告に対して質問回答のペアを用いた,新たな大規模データセットFinQAを提案する。
その結果、人気があり、大規模で、事前訓練されたモデルは、金融知識を得るための専門的な人間には程遠いことが示される。
論文 参考訳(メタデータ) (2021-09-01T00:08:14Z) - PolicyQA: A Reading Comprehension Dataset for Privacy Policies [77.79102359580702]
既存のWebサイトプライバシポリシ115のコーパスから算出した,25,017の理解スタイルの例を含むデータセットであるPolicyQAを提案する。
既存の2つのニューラルQAモデルを評価し、厳密な分析を行い、ポリシQAが提供する利点と課題を明らかにする。
論文 参考訳(メタデータ) (2020-10-06T09:04:58Z) - Explaining Relationships Between Scientific Documents [55.23390424044378]
本稿では,2つの学術文書間の関係を自然言語テキストを用いて記述する課題に対処する。
本稿では154K文書から622Kサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2020-02-02T03:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。