論文の概要: A Novel DeBERTa-based Model for Financial Question Answering Task
- arxiv url: http://arxiv.org/abs/2207.05875v1
- Date: Tue, 12 Jul 2022 22:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 14:19:09.666620
- Title: A Novel DeBERTa-based Model for Financial Question Answering Task
- Title(参考訳): 財務質問応答タスクのための新しいDeBERTaモデル
- Authors: Yanbo J. Wang, Yuming Li, Hui Qin, Yuhang Guan and Sheng Chen
- Abstract要約: 本研究は主に財務数値推論データセットであるFinQAに焦点を当てている。
共有タスクでは、所定の財務報告に従って、推論プログラムと最終回答を生成することが目的である。
実行精度は68.99で、プログラム精度は64.53で、2022年のFinQAチャレンジで4位となった。
- 参考スコア(独自算出の注目度): 9.083539882647928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a rising star in the field of natural language processing, question
answering systems (Q&A Systems) are widely used in all walks of life. Compared
with other scenarios, the applicationin financial scenario has strong
requirements in the traceability and interpretability of the Q&A systems. In
addition, since the demand for artificial intelligence technology has gradually
shifted from the initial computational intelligence to cognitive intelligence,
this research mainly focuses on the financial numerical reasoning dataset -
FinQA. In the shared task, the objective is to generate the reasoning program
and the final answer according to the given financial report containing text
and tables. We use the method based on DeBERTa pre-trained language model, with
additional optimization methods including multi-model fusion, training set
combination on this basis. We finally obtain an execution accuracy of 68.99 and
a program accuracy of 64.53, ranking No. 4 in the 2022 FinQA Challenge.
- Abstract(参考訳): 自然言語処理分野のスターとして、Q&Aシステム(Q&Aシステム)はあらゆる人生で広く使われている。
他のシナリオと比較して、アプリケーションインの財務シナリオは、Q&Aシステムのトレーサビリティと解釈可能性に強い要件を持っています。
さらに、人工知能技術の需要が、初期計算知能から認知知能へと徐々にシフトしてきたため、この研究は主に財務数値推論データセットFinQAに焦点を当てている。
共有タスクでは、テキストと表を含む所定の財務報告に従って推論プログラムと最終回答を生成する。
我々は,DeBERTa事前学習言語モデルに基づく手法を用いて,マルチモデル融合,トレーニングセットの組み合わせを含む最適化手法を提案する。
最終的に、実行精度68.99、プログラム精度64.53を取得し、2022年のFinQAチャレンジで4位となった。
関連論文リスト
- BizBench: A Quantitative Reasoning Benchmark for Business and Finance [7.4673182865000225]
BizBenchは、現実的な金融問題を推論するモデルの能力を評価するためのベンチマークである。
新たに収集および拡張されたQAデータから、財務的にテーマ化された3つのコード生成タスクを含む。
これらのタスクは、モデルの財務的背景の知識、財務文書を解析する能力、およびコードの問題を解決する能力を評価する。
論文 参考訳(メタデータ) (2023-11-11T16:16:11Z) - FinGPT: Instruction Tuning Benchmark for Open-Source Large Language
Models in Financial Datasets [9.714447724811842]
本稿では,オープンソースの大規模言語モデルに対して,インストラクションチューニングパラダイムに固有のアプローチを導入する。
私たちは、オープンソースのモデルの相互運用性に乗じて、シームレスで透過的な統合を確保します。
本稿では,エンドツーエンドのトレーニングとテストのためのベンチマーク手法を提案し,費用対効果を生かした。
論文 参考訳(メタデータ) (2023-10-07T12:52:58Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z) - Lila: A Unified Benchmark for Mathematical Reasoning [59.97570380432861]
LILAは、23の多様なタスクと4次元からなる統一的な数学的推論ベンチマークである。
我々は,Pythonプログラムの形式でタスク命令とソリューションを収集することにより,20のデータセットベンチマークを拡張してベンチマークを構築した。
LILAで訓練された汎用数学的推論モデルであるBHASKARAを紹介する。
論文 参考訳(メタデータ) (2022-10-31T17:41:26Z) - ConvFinQA: Exploring the Chain of Numerical Reasoning in Conversational
Finance Question Answering [70.6359636116848]
本稿では,対話型質問応答における数値推論の連鎖を研究するために,新しい大規模データセットConvFinQAを提案する。
我々のデータセットは、現実世界の会話において、長距離で複雑な数値推論パスをモデル化する上で大きな課題となる。
論文 参考訳(メタデータ) (2022-10-07T23:48:50Z) - A Robustly Optimized Long Text to Math Models for Numerical Reasoning On
FinQA [2.93888900363581]
FinQAチャレンジは、数値推論の研究を強化するために組織されている。
提案手法はFinQAにおいて71.93%の実行精度と67.03%のプログラム精度で1位となる。
論文 参考訳(メタデータ) (2022-06-29T12:10:18Z) - FinQA: A Dataset of Numerical Reasoning over Financial Data [52.7249610894623]
我々は、大量の財務文書の分析を自動化することを目的として、財務データに関する深い質問に答えることに重点を置いている。
我々は,金融専門家が作成した財務報告に対して質問回答のペアを用いた,新たな大規模データセットFinQAを提案する。
その結果、人気があり、大規模で、事前訓練されたモデルは、金融知識を得るための専門的な人間には程遠いことが示される。
論文 参考訳(メタデータ) (2021-09-01T00:08:14Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - Logic-Guided Data Augmentation and Regularization for Consistent
Question Answering [55.05667583529711]
本稿では,比較質問に対する応答の精度と整合性を改善する問題に対処する。
提案手法は論理的および言語的知識を利用してラベル付きトレーニングデータを増強し,一貫性に基づく正規化器を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2020-04-21T17:03:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。