論文の概要: Diversity Enhanced Table-to-Text Generation via Type Control
- arxiv url: http://arxiv.org/abs/2205.10938v1
- Date: Sun, 22 May 2022 22:05:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 16:07:24.684766
- Title: Diversity Enhanced Table-to-Text Generation via Type Control
- Title(参考訳): 型制御による多種多様なテーブル・ツー・テキスト生成
- Authors: Yotam Perlitz, Liat Ein-Dot, Dafna Sheinwald, Noam Slonim, Michal
Shmueli-Scheuer
- Abstract要約: 本稿では,文の性質,すなわち論理型に基づく多様性向上手法を提案する。
ユーザが生成したステートメントタイプを効果的にチューニングし、異なるタイプをサンプリングすることで、与えられたテーブルに対して多様なステートメントセットを得ることができる、という2つの利点を証明します。
- 参考スコア(独自算出の注目度): 8.977989789805548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating natural language statements to convey information from tabular
data (i.e., Table-to-text) is a process with one input and a variety of valid
outputs. This characteristic underscores the abilities to control the
generation and produce a diverse set of outputs as two key assets. Thus, we
propose a diversity enhancing scheme that builds upon an inherent property of
the statements, namely, their logic-types, by using a type-controlled
Table-to-text generation model. Employing automatic and manual tests, we prove
its twofold advantage: users can effectively tune the generated statement type,
and, by sampling different types, can obtain a diverse set of statements for a
given table.
- Abstract(参考訳): 自然言語文を生成して表データから情報を伝えるプロセス(Table-to-text)は、1つの入力と様々な有効な出力を持つプロセスである。
この特徴は、生成を制御し、異なる出力セットを2つの重要な資産として生成する能力を強調している。
そこで本稿では,型制御テーブル・ツー・テキスト生成モデルを用いて,文の性質,すなわち論理型に基づく多様性向上手法を提案する。
ユーザは生成されたステートメントタイプを効果的にチューニングすることができ、異なるタイプをサンプリングすることで、与えられたテーブルに対して多様なステートメントセットを得ることができる。
関連論文リスト
- Prompt Optimization via Adversarial In-Context Learning [51.18075178593142]
adv-ICLは、ジェネレータとディスクリミネータの間の2プレイヤーゲームとして実装される。
ジェネレータは、判別器を騙すのに十分な出力を生成する。
本稿では,Adv-ICLが最先端のプロンプト最適化技術を大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-12-05T09:44:45Z) - HeLM: Highlighted Evidence augmented Language Model for Enhanced Table-to-Text Generation [7.69801337810352]
LLaMA2モデル上でパラメータ効率の良い微調整を行う。
我々のアプローチは、テーブル固有の行データを強調することにより、推論情報を入力に注入することである。
FetaQAデータセットとQTSummデータセットの両方で、我々のアプローチは最先端の結果を得た。
論文 参考訳(メタデータ) (2023-11-15T12:02:52Z) - Few-Shot Data-to-Text Generation via Unified Representation and
Multi-Source Learning [114.54944761345594]
本稿では,既存の手法の限界に対処する構造化データ・テキスト生成手法を提案する。
提案手法は,マルチタスクトレーニング,ゼロショット,少数ショットシナリオの性能向上を目的としている。
論文 参考訳(メタデータ) (2023-08-10T03:09:12Z) - Large Language Model as Attributed Training Data Generator: A Tale of
Diversity and Bias [92.41919689753051]
大規模言語モデル(LLM)は、最近、様々な自然言語処理(NLP)タスクのためのトレーニングデータジェネレータとして活用されている。
本稿では,多様な属性を持つプロンプトを用いたトレーニングデータ生成について検討する。
属性付きプロンプトは、結果のモデルの性能の観点から、単純なクラス条件プロンプトより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-28T03:31:31Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - Improving Logical-Level Natural Language Generation with
Topic-Conditioned Data Augmentation and Logical Form Generation [18.93964332724296]
本稿ではトピック条件付きデータ拡張(TopicDA)を提案し,テーブルから直接論理形式とテキスト記述を生成する。
論理形式生成(LG)はLogic2textの2つのタスクであり、テーブルのテキスト記述に基づいて有効な論理形式を生成する必要がある。
また,ラベル付きデータと拡張データの両方でLogic2textとLGモデルを併用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T13:50:18Z) - Control Prefixes for Text Generation [17.682443394199375]
本稿では,各プロンプトに条件付き入力依存情報を組み込む動的手法である制御プリフィックスを提案する。
我々は、WebNLGを含むいくつかのデータからテキストへのデータセットに対して、最先端の結果を提示する。
論文 参考訳(メタデータ) (2021-10-15T19:32:17Z) - Multimodal Conditionality for Natural Language Generation [0.0]
MAnTiSは、トランスフォーマーベースの自然言語生成モデルにおけるマルチモーダル条件に対する一般的なアプローチである。
我々は、製品記述生成タスクにMAnTiSを適用し、製品イメージとタイトルの両方にネットワークを条件付け、記述テキストを生成する。
論文 参考訳(メタデータ) (2021-09-02T22:06:07Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。