論文の概要: ReTAG: Reasoning Aware Table to Analytic Text Generation
- arxiv url: http://arxiv.org/abs/2305.11826v2
- Date: Mon, 30 Oct 2023 03:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 02:41:43.661401
- Title: ReTAG: Reasoning Aware Table to Analytic Text Generation
- Title(参考訳): ReTAG: 分析テキスト生成のための認識テーブルの推論
- Authors: Deepanway Ghosal and Preksha Nema and Aravindan Raghuveer
- Abstract要約: ReTAGは、ベクトル量子化を用いて異なるタイプの解析的推論を出力に注入するテーブルおよび推論認識モデルである。
私たちは、ToTTo、InfoTabsデータセットを参照文毎に推論カテゴリで拡張(そして、オープンソースの35.6K分析、55.9k記述インスタンス)します。
- 参考スコア(独自算出の注目度): 12.603569641254417
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The task of table summarization involves generating text that both succinctly
and accurately represents the table or a specific set of highlighted cells
within a table. While significant progress has been made in table to text
generation techniques, models still mostly generate descriptive summaries,
which reiterates the information contained within the table in sentences.
Through analysis of popular table to text benchmarks (ToTTo (Parikh et al.,
2020 and InfoTabs (Gupta et al., 2020) we observe that in order to generate the
ideal summary, multiple types of reasoning is needed coupled with access to
knowledge beyond the scope of the table. To address this gap, we propose ReTAG,
a table and reasoning aware model that uses vector-quantization to infuse
different types of analytical reasoning into the output. ReTAG achieves 2.2%,
2.9% improvement on the PARENT metric in the relevant slice of ToTTo and
InfoTabs for the table to text generation task over state of the art baselines.
Through human evaluation, we observe that output from ReTAG is upto 12% more
faithful and analytical compared to a strong table-aware model. To the best of
our knowledge, ReTAG is the first model that can controllably use multiple
reasoning methods within a structure-aware sequence to sequence model to
surpass state of the art performance in multiple table to text tasks. We extend
(and open source 35.6K analytical, 55.9k descriptive instances) the ToTTo,
InfoTabs datasets with the reasoning categories used in each reference
sentences.
- Abstract(参考訳): テーブル要約のタスクは、テーブル内の特定のハイライトされたセルのセットを簡潔かつ正確に表すテキストを生成することである。
テーブルからテキスト生成技術への大きな進歩はあったが、モデルが依然として記述的な要約を生成しており、表に含まれる情報を文で繰り返す。
一般的なテーブルからテキストへのベンチマーク(totto (parikh et al., 2020 and infotabs (gupta et al., 2020))の分析を通じて、理想的な要約を生成するには、複数の推論が必要であり、テーブルの範囲を超えた知識へのアクセスが必要であることを観察する。
このギャップに対処するために,ベクトル量子化を用いた解析的推論を出力に注入するテーブルおよび推論認識モデルであるReTAGを提案する。
ReTAGは、ToTToとInfoTabsの関連するスライスでPARENTメトリックを2.2%、2.9%改善し、アートベースラインの状態よりもテキスト生成タスクを生成する。
人間による評価により、ReTAGの出力は、強いテーブル認識モデルに比べて12%ほど忠実で分析的であることがわかった。
我々の知る限りでは、ReTAGは構造認識シーケンスからシーケンスモデルまでの複数の推論手法を制御し、複数のテーブルからテキストタスクへのアートパフォーマンスの状態を克服する最初のモデルである。
私たちは、ToTTo、InfoTabsデータセットを参照文毎に推論カテゴリで拡張(そして、オープンソースの35.6K分析、55.9k記述インスタンス)します。
関連論文リスト
- TDeLTA: A Light-weight and Robust Table Detection Method based on
Learning Text Arrangement [34.73880086005418]
本稿では,学習テキストアレンジメント(TDeLTA)に基づく新しい,軽量で堅牢なテーブル検出手法を提案する。
表を正確に特定するために,表内の意味的役割に応じてテキストブロックを4つのカテゴリに分類するテキスト分類タスクを設計する。
いくつかの最先端の手法と比較して、TDeLTAは大規模な公開データセットの3.1Mモデルパラメータで競合する結果を得る。
論文 参考訳(メタデータ) (2023-12-18T09:18:43Z) - HeLM: Highlighted Evidence augmented Language Model for Enhanced Table-to-Text Generation [7.69801337810352]
LLaMA2モデル上でパラメータ効率の良い微調整を行う。
我々のアプローチは、テーブル固有の行データを強調することにより、推論情報を入力に注入することである。
FetaQAデータセットとQTSummデータセットの両方で、我々のアプローチは最先端の結果を得た。
論文 参考訳(メタデータ) (2023-11-15T12:02:52Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Doc2SoarGraph: Discrete Reasoning over Visually-Rich Table-Text
Documents via Semantic-Oriented Hierarchical Graphs [79.0426838808629]
視覚的にリッチなテーブルテキスト文書に答えるTAT-DQAを提案する。
具体的には、離散推論機能を強化した新しいDoc2SoarGraphフレームワークを提案する。
我々は,TAT-DQAデータセットに関する広範な実験を行い,提案したフレームワークは,テストセット上でのエクサクティマッチ(EM)とF1スコアでそれぞれ17.73%,F1スコアで16.91%の最高のベースラインモデルを上回る結果を得た。
論文 参考訳(メタデータ) (2023-05-03T07:30:32Z) - Attend, Memorize and Generate: Towards Faithful Table-to-Text Generation
in Few Shots [58.404516361586325]
Few-shot table-to-text generation は、限られたデータを用いてテーブル内容を伝えるために、流動的で忠実な文を構成するタスクである。
本稿では,人間のテキスト生成プロセスに触発された新しい手法,覚醒と生成(AMG)を提案する。
論文 参考訳(メタデータ) (2022-03-01T20:37:20Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z) - Towards Faithful Neural Table-to-Text Generation with Content-Matching
Constraints [63.84063384518667]
そこで本研究では,トランスフォーマーをベースとした新たな生成フレームワークを提案する。
忠実度を強制する手法の中核となる技術は、テーブル-テキストの最適トランスポート・マッチング・ロスである。
忠実度を評価するため,テーブル・ツー・テキスト生成問題に特化した新しい自動尺度を提案する。
論文 参考訳(メタデータ) (2020-05-03T02:54:26Z) - ToTTo: A Controlled Table-To-Text Generation Dataset [61.83159452483026]
ToTToはオープンドメインの英語のテーブル・トゥ・テキストのデータセットで、12万以上のトレーニングサンプルがある。
本稿では、ウィキペディアから既存の候補文を直接修正するデータセット構築プロセスを紹介する。
通常流動的であるが、既存の方法は多くの場合、表がサポートしていないフレーズを幻覚させる。
論文 参考訳(メタデータ) (2020-04-29T17:53:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。