論文の概要: PoinT-5: Pointer Network and T-5 based Financial NarrativeSummarisation
- arxiv url: http://arxiv.org/abs/2010.04191v2
- Date: Mon, 12 Oct 2020 03:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 12:16:03.796696
- Title: PoinT-5: Pointer Network and T-5 based Financial NarrativeSummarisation
- Title(参考訳): PoinT-5:ポインタネットワークとT-5に基づく金融ナラティブ要約
- Authors: Abhishek Singh
- Abstract要約: これらのレポートの平均の長さは80であり、最大250ページに及ぶ可能性がある。
提案手法はPoinT-5(Pointer NetworkとT-5(Test-to-text Transfer Transformer)アルゴリズムの組み合わせ)である。
提案手法では,ポインタネットワークを用いてレポートから重要な物語文を抽出し,T-5を用いて抽出した文章を簡潔で情報に乏しい文に言い換える。
- 参考スコア(独自算出の注目度): 2.9008108937701333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Companies provide annual reports to their shareholders at the end of the
financial year that describes their operations and financial conditions. The
average length of these reports is 80, and it may extend up to 250 pages long.
In this paper, we propose our methodology PoinT-5 (the combination of Pointer
Network and T-5 (Test-to-text transfer Transformer) algorithms) that we used in
the Financial Narrative Summarisation (FNS) 2020 task. The proposed method uses
pointer networks to extract important narrative sentences from the report, and
then T-5 is used to paraphrase extracted sentences into a concise yet
informative sentence. We evaluate our method using ROUGE-N (1,2), L, and SU4.
The proposed method achieves the highest precision scores in all the metrics
and highest F1 scores in ROUGE1, and LCS and the only solution to cross the
MUSE solution baseline in ROUGE-LCS metrics.
- Abstract(参考訳): 企業は年度末に株主に対して、運用状況や財務状況に関する年次報告書を提出する。
これらのレポートの平均の長さは80で、最大250ページに及ぶ可能性がある。
本稿では,PinT-5(Pointer NetworkとT-5(Test-to-text Transfer Transformer)アルゴリズムの組み合わせ)をFN(Financial Narrative Summarisation)2020タスクで使用した手法を提案する。
提案手法では,ポインタネットワークを用いてレポートから重要な物語文を抽出し,t-5を用いて抽出した文を簡潔で有意義な文にパラフレーズする。
ROUGE-N (1,2), L, SU4を用いて評価を行った。
提案手法は,すべての指標における最高精度スコアと,ルージュ1,lcsにおける最高f1スコアを達成し,ルージュlcsメトリクスにおけるmuseソリューションベースラインを横断する唯一の解である。
関連論文リスト
- Reshaping Free-Text Radiology Notes Into Structured Reports With Generative Transformers [0.29530625605275984]
構造化報告(SR)は様々な医療社会で推奨されている。
自由テキストレポートから情報を抽出するパイプラインを提案する。
我々の研究は自然言語処理(NLP)とトランスフォーマーベースのモデルを活用することを目的としている。
論文 参考訳(メタデータ) (2024-03-27T18:38:39Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Large Language Models are Effective Text Rankers with Pairwise Ranking Prompting [65.00288634420812]
Pairwise Ranking Prompting (PRP)は、大規模言語モデル(LLM)の負担を大幅に軽減する手法である。
本研究は,中等級のオープンソースLCMを用いた標準ベンチマークにおいて,最先端のランク付け性能を達成した文献としては初めてである。
論文 参考訳(メタデータ) (2023-06-30T11:32:25Z) - T5Score: Discriminative Fine-tuning of Generative Evaluation Metrics [94.69907794006826]
我々は、現在利用可能なデータから、教師なし信号と教師なし信号の両方を用いて、両方の世界のベストを結合するフレームワークを提案する。
このアイデアを,mT5をバックボーンとするトレーニング信号を使用するメトリックであるT5Scoreをトレーニングすることで,運用する。
T5Scoreは、セグメントレベルの既存のトップスコアメトリクスに対して、すべてのデータセットで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-12T06:29:04Z) - Multi-Narrative Semantic Overlap Task: Evaluation and Benchmark [4.303515688770516]
本稿では,MNSO(Multi-Narrative Semantic Overlap)と呼ばれる重要なNLPタスクを紹介する。
ウェブから2,925の物語のペアをクロールして1つを作り、それから、人間のアノテータをアクティベートすることで、411の異なる地味のセマンティックオーバーラップを手作業で作成するという面倒なプロセスを経ました。
SEM-F1(semantic F1)と呼ばれる新しい高精度リコール方式の評価基準を定式化する。
実験結果から,提案したSEM-F1測定値が,ROUGE測定値よりも高い相関性を示した。
論文 参考訳(メタデータ) (2022-01-14T03:56:41Z) - TTRS: Tinkoff Transactions Recommender System benchmark [62.997667081978825]
TTRS - Tinkoff Transactions Recommender Systemベンチマークを示す。
この金融取引ベンチマークには、約1万人のユーザーと、14ヶ月で1000以上の商業ブランドの間で200万以上のインタラクションが含まれている。
また,現在普及しているRecSys手法を次の期間の推薦タスクで総合的に比較し,その性能を様々な指標や推奨目標に対して詳細に分析する。
論文 参考訳(メタデータ) (2021-10-11T20:04:07Z) - Context-NER : Contextual Phrase Generation at Scale [4.7947627446578025]
文中のエンティティに関連するコンテキストを生成するタスクであるCONTEXT-NERを紹介する。
EDGAR10-Qデータセットは,100万文,2.8万エンティティ,平均35トークンを含む。
EDGAR10-Qで事前調整したT5-largeは,Headline,FPB,FiQA SAなどの下流財務タスクにおいてSOTA結果を得ることができ,バニラバージョンを10.81ポイント上回った。
論文 参考訳(メタデータ) (2021-09-16T16:10:05Z) - On Addressing Practical Challenges for RNN-Transduce [72.72132048437751]
オーディオデータを収集することなく、よく訓練されたRNN-Tモデルを新しいドメインに適応します。
復号時に計算された複数の特徴を利用して単語レベルの信頼度を求める。
提案手法では,平均で50ms以下の単語のタイミング差が得られる。
論文 参考訳(メタデータ) (2021-04-27T23:31:43Z) - A Survey of Recent Abstract Summarization Techniques [0.0]
英語とインドネシア語のウィキペディアデータセットに対する事前学習モデルの影響について検討する。
ROUGEのパフォーマンスに影響を与える最も重要な要因は、カバレッジ、密度、圧縮です。
T5-Large、Pegasus-XSum、ProphetNet-CNNDMは最高の要約を提供する。
論文 参考訳(メタデータ) (2021-04-15T20:01:34Z) - IIT_kgp at FinCausal 2020, Shared Task 1: Causality Detection using
Sentence Embeddings in Financial Reports [0.0]
この研究は、文中の因果関係を識別する最初のサブタスクと関連付けられている。
BERT (Large) は、財務文書や報告書の文の因果性を検出するタスクにおいて、F1スコア0.958を与えられた。
論文 参考訳(メタデータ) (2020-11-16T00:57:14Z) - mT5: A massively multilingual pre-trained text-to-text transformer [60.0210636815514]
The Text-to-Text Transfer Transformer (T5) は、統一されたテキスト・トゥ・テキストフォーマットとスケールを利用して、英語のNLPタスクで最先端の結果を得る。
101言語をカバーする新しいCommon Crawlベースのデータセットで事前トレーニングを行ったマルチ言語版T5であるmT5を紹介する。
論文 参考訳(メタデータ) (2020-10-22T17:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。