論文の概要: A Robustly Optimized Long Text to Math Models for Numerical Reasoning On
FinQA
- arxiv url: http://arxiv.org/abs/2207.06490v1
- Date: Wed, 29 Jun 2022 12:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-17 19:05:42.962220
- Title: A Robustly Optimized Long Text to Math Models for Numerical Reasoning On
FinQA
- Title(参考訳): FinQA上の数値推論のための数学モデルに対するロバストに最適化された長文
- Authors: Renhui Zhang, Youwei Zhang, Yao Yu
- Abstract要約: FinQAチャレンジは、数値推論の研究を強化するために組織されている。
提案手法はFinQAにおいて71.93%の実行精度と67.03%のプログラム精度で1位となる。
- 参考スコア(独自算出の注目度): 2.93888900363581
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerical reasoning is required when solving most problems in our life, but
it has been neglected in previous artificial intelligence researches. FinQA
challenge has been organized to strengthen the study on numerical reasoning
where the participants are asked to predict the numerical reasoning program to
solve financial question. The result of FinQA will be evaluated by both
execution accuracy and program accuracy. In this paper, we present our approach
to tackle the task objective by developing models with different specialized
capabilities and fusing their strength. Overall, our approach achieves the 1st
place in FinQA challenge, with 71.93% execution accuracy and 67.03% program
accuracy.
- Abstract(参考訳): 人生のほとんどの問題を解決するには数値推論が必要であるが、これまでの人工知能研究では無視されてきた。
FinQAチャレンジは、参加者が金銭的問題を解決するための数値推論プログラムの予測を依頼する数値推論の研究を強化するために編成されている。
FinQAの結果は、実行精度とプログラム精度の両方で評価される。
本稿では,異なる特殊能力を持つモデルを開発し,その強みを損なうことによってタスク目標に取り組む手法を提案する。
全体として、FinQAでは71.93%の実行精度と67.03%のプログラム精度で1位となる。
関連論文リスト
- Evaluation of OpenAI o1: Opportunities and Challenges of AGI [112.0812059747033]
o1-previewは目覚ましい能力を示し、しばしば人間レベルまたは優れたパフォーマンスを実現した。
このモデルは、様々な分野にわたる複雑な推論と知識の統合を必要とするタスクに優れていた。
総合的な結果は、人工知能への大きな進歩を示している。
論文 参考訳(メタデータ) (2024-09-27T06:57:00Z) - SUPER: Evaluating Agents on Setting Up and Executing Tasks from Research Repositories [55.161075901665946]
Superは、機械学習(ML)と自然言語処理(NLP)の研究リポジトリを扱う研究者が直面する現実的な課題を捉えることを目的としている。
本ベンチマークでは,注釈付きエキスパートソリューションを用いたエンドツーエンド問題45,特定の課題に焦点をあてたエキスパートソリューションから導いた152,大規模開発のための602の問題を自動生成する。
我々は、最先端のアプローチが、最良のモデル(GPT-4o)でこれらの問題を解決するのに苦労していることを示し、エンド・ツー・エンドの16.3%と46.1%のシナリオを解決した。
論文 参考訳(メタデータ) (2024-09-11T17:37:48Z) - Case-Based Reasoning Approach for Solving Financial Question Answering [5.10832476049103]
FinQAは財務文書の数値推論データセットを導入した。
ケースベース推論(CBR)を用いた数値推論問題に対する新しいアプローチを提案する。
本モデルでは,質問に対処する関連事例を検索し,検索した事例と文脈情報に基づいて回答を生成する。
論文 参考訳(メタデータ) (2024-05-18T10:06:55Z) - Evaluating Mathematical Reasoning Beyond Accuracy [50.09931172314218]
推論ステップの品質を評価するための新しい方法論であるReasonEvalを紹介します。
我々は、ReasonEvalが人間のラベル付きデータセット上で最先端のパフォーマンスを達成することを示す。
我々は、ReasonEvalがデータ選択において重要な役割を果たすことを観察する。
論文 参考訳(メタデータ) (2024-04-08T17:18:04Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Comprehensive Solution Program Centric Pretraining for Table-and-Text
Hybrid Numerical Reasoning [21.708394374594082]
財務報告のような表と表のハイブリッドパスに対する数値推論は、重大な課題を提起する。
解法プログラム全体の粗大な監督は、基礎となる数値推論過程を学習するモデルの能力を妨げる。
本稿では,プログラム全体とサブプログラムレベルの両方で動作する3つの事前学習タスクを提案する。
論文 参考訳(メタデータ) (2023-05-12T13:44:40Z) - APOLLO: An Optimized Training Approach for Long-form Numerical Reasoning [31.252979262232124]
我々は,長文の数値推論フレームワークを改善するためにAPOLLOを提案する。
検索者に対しては,検索者が重要な数値的事実に対してより識別しやすくするために,無認識の負のサンプリング戦略を採用する。
ジェネレータに対しては、一貫性に基づく強化学習と目標プログラム拡張戦略を設計する。
論文 参考訳(メタデータ) (2022-12-14T14:34:15Z) - A Novel DeBERTa-based Model for Financial Question Answering Task [9.083539882647928]
本研究は主に財務数値推論データセットであるFinQAに焦点を当てている。
共有タスクでは、所定の財務報告に従って、推論プログラムと最終回答を生成することが目的である。
実行精度は68.99で、プログラム精度は64.53で、2022年のFinQAチャレンジで4位となった。
論文 参考訳(メタデータ) (2022-07-12T22:34:39Z) - FinQA: A Dataset of Numerical Reasoning over Financial Data [52.7249610894623]
我々は、大量の財務文書の分析を自動化することを目的として、財務データに関する深い質問に答えることに重点を置いている。
我々は,金融専門家が作成した財務報告に対して質問回答のペアを用いた,新たな大規模データセットFinQAを提案する。
その結果、人気があり、大規模で、事前訓練されたモデルは、金融知識を得るための専門的な人間には程遠いことが示される。
論文 参考訳(メタデータ) (2021-09-01T00:08:14Z) - Logic-Guided Data Augmentation and Regularization for Consistent
Question Answering [55.05667583529711]
本稿では,比較質問に対する応答の精度と整合性を改善する問題に対処する。
提案手法は論理的および言語的知識を利用してラベル付きトレーニングデータを増強し,一貫性に基づく正規化器を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2020-04-21T17:03:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。