論文の概要: Table Caption Generation in Scholarly Documents Leveraging Pre-trained
Language Models
- arxiv url: http://arxiv.org/abs/2108.08111v1
- Date: Wed, 18 Aug 2021 12:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 19:45:14.273872
- Title: Table Caption Generation in Scholarly Documents Leveraging Pre-trained
Language Models
- Title(参考訳): 事前学習型言語モデルを活用した学習文書のテーブルキャプション生成
- Authors: Junjie H. Xu, Kohei Shinden, Makoto P. Kato
- Abstract要約: 本稿では,学術文献の表キャプション作成の問題に対処する。
本稿では,紙本体から関連文を検索する手法を提案する。
次に、学習済みの言語モデルにテーブル内容と検索文を供給します。
- 参考スコア(独自算出の注目度): 2.477260903221371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the problem of generating table captions for scholarly
documents, which often require additional information outside the table. To
this end, we propose a method of retrieving relevant sentences from the paper
body, and feeding the table content as well as the retrieved sentences into
pre-trained language models (e.g. T5 and GPT-2) for generating table captions.
The contributions of this paper are: (1) discussion on the challenges in table
captioning for scholarly documents; (2) development of a dataset DocBank-TB,
which is publicly available; and (3) comparison of caption generation methods
for scholarly documents with different strategies to retrieve relevant
sentences from the paper body. Our experimental results showed that T5 is the
better generation model for this task, as it outperformed GPT-2 in BLEU and
METEOR implying that the generated text are clearer and more precise. Moreover,
inputting relevant sentences matching the row header or whole table is
effective.
- Abstract(参考訳): 本稿では,学術文献の表キャプション作成の問題点について論じる。
そこで本研究では,用紙本体から関連文を検索し,検索文だけでなく表内容も事前学習した言語モデル(例)に入力する手法を提案する。
T5およびGPT-2) テーブルキャプションを生成する。
本論文の貢献は,(1)学術文献の表キャプションにおける課題に関する議論,(2)公開可能なデータセットdocbank-tbの開発,(3)論文本体から関連文を取得するための戦略が異なる学術文献のキャプション生成方法の比較である。
実験結果から, BLEU と METEOR では GPT-2 を上回り, 生成したテキストがより明確で正確であることを示すため, T5 がより優れた生成モデルであることが示唆された。
また、行ヘッダまたはテーブル全体と一致する関連文の入力が効果的である。
関連論文リスト
- Evaluation of Table Representations to Answer Questions from Tables in Documents : A Case Study using 3GPP Specifications [0.650923326742559]
関連するチャンクの点におけるテーブルの表現は明確ではない。
各セルに対応するテーブルヘッダ情報を含むローレベル表現は、検索性能を向上させる。
論文 参考訳(メタデータ) (2024-08-30T04:40:35Z) - DocTabQA: Answering Questions from Long Documents Using Tables [16.3130447078524]
本稿では,DocTabQAと呼ばれる質問応答(QA)の新たな問題設定について検討する。
この設定内では、長いドキュメントが与えられたら、答を文書の内容から直接導かれる構造化テーブルに整理することで質問に答えることが目的である。
我々はQTabAデータセットを導入し,300の財務文書と1.5kの質問表を手作業でアノテートした。
本稿では,DocTabTalkと呼ばれる2段階のフレームワークについて述べる。
論文 参考訳(メタデータ) (2024-08-21T10:01:12Z) - Doc2SoarGraph: Discrete Reasoning over Visually-Rich Table-Text
Documents via Semantic-Oriented Hierarchical Graphs [79.0426838808629]
視覚的にリッチなテーブルテキスト文書に答えるTAT-DQAを提案する。
具体的には、離散推論機能を強化した新しいDoc2SoarGraphフレームワークを提案する。
我々は,TAT-DQAデータセットに関する広範な実験を行い,提案したフレームワークは,テストセット上でのエクサクティマッチ(EM)とF1スコアでそれぞれ17.73%,F1スコアで16.91%の最高のベースラインモデルを上回る結果を得た。
論文 参考訳(メタデータ) (2023-05-03T07:30:32Z) - Towards Table-to-Text Generation with Pretrained Language Model: A Table
Structure Understanding and Text Deliberating Approach [60.03002572791552]
本稿では,テーブル構造理解とテキスト検討手法,すなわちTASDを提案する。
具体的には,表構造を考慮したテキスト生成モデルを実現するために,三層多層アテンションネットワークを考案する。
われわれのアプローチは、様々な種類のテーブルに対して忠実で流動的な記述テキストを生成することができる。
論文 参考訳(メタデータ) (2023-01-05T14:03:26Z) - Attend, Memorize and Generate: Towards Faithful Table-to-Text Generation
in Few Shots [58.404516361586325]
Few-shot table-to-text generation は、限られたデータを用いてテーブル内容を伝えるために、流動的で忠実な文を構成するタスクである。
本稿では,人間のテキスト生成プロセスに触発された新しい手法,覚醒と生成(AMG)を提案する。
論文 参考訳(メタデータ) (2022-03-01T20:37:20Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z) - ToTTo: A Controlled Table-To-Text Generation Dataset [61.83159452483026]
ToTToはオープンドメインの英語のテーブル・トゥ・テキストのデータセットで、12万以上のトレーニングサンプルがある。
本稿では、ウィキペディアから既存の候補文を直接修正するデータセット構築プロセスを紹介する。
通常流動的であるが、既存の方法は多くの場合、表がサポートしていないフレーズを幻覚させる。
論文 参考訳(メタデータ) (2020-04-29T17:53:45Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。