論文の概要: gTBLS: Generating Tables from Text by Conditional Question Answering
- arxiv url: http://arxiv.org/abs/2403.14457v1
- Date: Thu, 21 Mar 2024 15:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 13:49:29.231819
- Title: gTBLS: Generating Tables from Text by Conditional Question Answering
- Title(参考訳): gTBLS: 条件付き質問回答によるテキストから表を生成する
- Authors: Anirudh Sundar, Christopher Richardson, Larry Heck,
- Abstract要約: 本稿では、生成テーブル(gTBLS)と呼ばれる2段階のアプローチを提案する。
第1段は、テキストからテーブル構造(ロウとカラムヘッダ)を推論する。
第2段階では、これらのヘッダを使って質問を定式化し、それに対応するために因果言語モデルを微調整する。
- 参考スコア(独自算出の注目度): 3.240750198587796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distilling large, unstructured text into a structured, condensed form such as tables is an open research problem. One of the primary challenges in automatically generating tables is ensuring their syntactic validity. Prior approaches address this challenge by including additional parameters in the Transformer's attention mechanism to attend to specific rows and column headers. In contrast to this single-stage method, this paper presents a two-stage approach called Generative Tables (gTBLS). The first stage infers table structure (row and column headers) from the text. The second stage formulates questions using these headers and fine-tunes a causal language model to answer them. Furthermore, the gTBLS approach is amenable to the utilization of pre-trained Large Language Models in a zero-shot configuration, presenting a solution for table generation in situations where fine-tuning is not feasible. gTBLS improves prior approaches by up to 10% in BERTScore on the table construction task and up to 20% on the table content generation task of the E2E, WikiTableText, WikiBio, and RotoWire datasets.
- Abstract(参考訳): 大規模で非構造化のテキストをテーブルのような構造化された、凝縮された形式に蒸留することは、オープンな研究課題である。
テーブルの自動生成における主な課題の1つは、その構文的妥当性を保証することである。
以前のアプローチでは、特定の行や列ヘッダに出席するTransformerのアテンションメカニズムにパラメータを追加することで、この問題に対処していた。
本手法とは対照的に,生成テーブル (gTBLS) と呼ばれる2段階の手法を提案する。
第1段は、テキストからテーブル構造(ロウとカラムヘッダ)を推論する。
第2段階では、これらのヘッダを使って質問を定式化し、それに対応するために因果言語モデルを微調整する。
さらに、gTBLSアプローチは、ゼロショット構成での事前訓練された大規模言語モデルの利用に有効であり、微調整が不可能な状況において、テーブル生成のためのソリューションを提供する。
gTBLSは、テーブル構築タスクでBERTScoreを最大10%改善し、E2E、WikiTableText、WikiBio、RotoWireデータセットのテーブルコンテンツ生成タスクで最大20%改善する。
関連論文リスト
- WikiTableEdit: A Benchmark for Table Editing by Natural Language
Instruction [56.196512595940334]
本稿では,表編集作業におけるLarge Language Models(LLM)の性能について検討する。
Wikiデータセットから26,531のテーブルを活用し、6つの異なる基本操作のための自然言語命令を生成する。
WikiTableEditデータセット上でいくつかの代表的大規模言語モデルを評価し,その課題を実証する。
論文 参考訳(メタデータ) (2024-03-05T13:33:12Z) - Augment before You Try: Knowledge-Enhanced Table Question Answering via
Table Expansion [57.53174887650989]
テーブル質問応答は、構造化されたデータを理解し、相互作用するモデルの能力を評価する一般的なタスクである。
既存の方法は表と外部の知識の両方をテキストに変換し、表の構造的な性質を無視する。
そこで本稿では,表に外部情報を統合するための簡易で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-01-28T03:37:11Z) - A Sequence-to-Sequence&Set Model for Text-to-Table Generation [35.65374526264392]
本稿では,新しいシーケンス・ツー・シーケンス・セットのテキスト・ツー・テーブル生成モデルを提案する。
具体的には、まず、ほとんどの行の生成が順序に敏感であることを示す予備的な研究を行う。
実験結果から,本モデルがベースラインをはるかに上回ることがわかった。
論文 参考訳(メタデータ) (2023-05-31T19:28:00Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Few-Shot Table-to-Text Generation with Prefix-Controlled Generator [11.891732582638227]
本稿では,PCG(Prefix-Controlled Generator)というプロンプトベースの手法を提案する。
PLMのタスク固有のプレフィックスをプリペイドし、テーブル構造を事前訓練された入力に適合させる。
さらに、入力固有の接頭辞を生成し、生成したテキストの事実内容と語順を制御する。
論文 参考訳(メタデータ) (2022-08-23T03:23:26Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - TableFormer: Robust Transformer Modeling for Table-Text Encoding [18.00127368618485]
テーブル理解のための既存のモデルはテーブル構造の線形化を必要とし、行や列の順序は不要なバイアスとしてエンコードされる。
本研究では,テーブルテキストエンコーディングアーキテクチャであるTableFormerを提案する。
論文 参考訳(メタデータ) (2022-03-01T07:23:06Z) - Text-to-Table: A New Way of Information Extraction [8.326657025342042]
テキスト・ツー・テーブル(text-to-table)と呼ばれる情報抽出(IE)の新たな問題設定について検討する。
テキスト・ツー・テーブルでは、テキストが与えられたら、そのテキストの主内容を表すテーブルやいくつかのテーブルを作成する。
実験では,既存のテーブル・ツー・テキスト・データセットを4つ使用しています。
論文 参考訳(メタデータ) (2021-09-06T19:35:46Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z) - ToTTo: A Controlled Table-To-Text Generation Dataset [61.83159452483026]
ToTToはオープンドメインの英語のテーブル・トゥ・テキストのデータセットで、12万以上のトレーニングサンプルがある。
本稿では、ウィキペディアから既存の候補文を直接修正するデータセット構築プロセスを紹介する。
通常流動的であるが、既存の方法は多くの場合、表がサポートしていないフレーズを幻覚させる。
論文 参考訳(メタデータ) (2020-04-29T17:53:45Z) - Identifying Table Structure in Documents using Conditional Generative
Adversarial Networks [0.0]
多くの産業や学術研究において、情報は主に構造化されていない文書の形で伝達される。
本稿では,まず,テーブルイメージを標準化されたスケルトンテーブル形式にマッピングするために,条件付き生成逆数ネットワークを用いたトップダウンアプローチを提案する。
次に、xy-cutプロジェクションと遺伝的アルゴリズムを用いた潜在テーブル構造を導出する。
論文 参考訳(メタデータ) (2020-01-13T20:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。