論文の概要: Instruct-SCTG: Guiding Sequential Controlled Text Generation through
Instructions
- arxiv url: http://arxiv.org/abs/2312.12299v1
- Date: Tue, 19 Dec 2023 16:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 14:49:34.405984
- Title: Instruct-SCTG: Guiding Sequential Controlled Text Generation through
Instructions
- Title(参考訳): 命令-SCTG:命令によるシーケンス制御テキスト生成の誘導
- Authors: Yinhong Liu, Yixuan Su, Ehsan Shareghi and Nigel Collier
- Abstract要約: Instruct-SCTGは、命令調整言語モデルを利用して構造的に一貫性のあるテキストを生成するシーケンシャルフレームワークである。
本フレームワークは,自然言語命令を用いて,所望の人体構造に整合して記事を生成する。
- 参考スコア(独自算出の注目度): 42.67608830386934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instruction-tuned large language models have shown remarkable performance in
aligning generated text with user intentions across various tasks. However,
maintaining human-like discourse structure in the generated text remains a
challenging research question. In this paper, we propose Instruct-SCTG, a
flexible and effective sequential framework that harnesses instruction-tuned
language models to generate structurally coherent text in both fine-tuned and
zero-shot setups. Our framework generates articles in a section-by-section
manner, aligned with the desired human structure using natural language
instructions. Furthermore, we introduce a new automatic metric that measures
discourse divergence in a fuzzy manner. Extensive experiments on three datasets
from representative domains of news and recipes demonstrate the
state-of-the-art performance of our framework in imposing discourse structure
during text generation, as verified by both automatic and human evaluation. Our
code will be available on Github.
- Abstract(参考訳): インストラクションをチューニングした大規模言語モデルは、生成したテキストを様々なタスクにまたがってユーザ意図と整合する際、顕著な性能を示した。
しかし、生成したテキストにおける人間的な談話構造を維持することは、いまだに難しい研究課題である。
本稿では,命令型言語モデルを用いて,微調整とゼロショットの両方で構造的にコヒーレントなテキストを生成する,フレキシブルで効果的なシーケンシャルフレームワークinstruct-sctgを提案する。
本フレームワークは,自然言語命令を用いて,所望の人間構造と整合した記事を生成する。
さらに,ファジィな方法で談話の発散を測定する新しい自動測定器を導入する。
ニュースとレシピの代表的な領域から得られた3つのデータセットに対する大規模な実験は、自動評価と人的評価の両方で検証され、テキスト生成時の談話構造を示す枠組みの最先端性能を示す。
私たちのコードはgithubで入手できる。
関連論文リスト
- Efficient Guided Generation for Large Language Models [0.21485350418225244]
本稿では, 有限状態マシンの状態間の遷移の観点から, ニューラルテキスト生成の問題を構成的に再構成する方法を示す。
このフレームワークは、正規表現と文脈自由文法でテキスト生成を導くための効率的なアプローチをもたらす。
論文 参考訳(メタデータ) (2023-07-19T01:14:49Z) - Explicit Syntactic Guidance for Neural Text Generation [45.60838824233036]
生成文法は、人間が言語文法を学習することで自然言語のテキストを生成することを示唆している。
本稿では,トップダウン方向の選挙区解析木に案内されたシーケンスを生成する構文誘導型生成スキーマを提案する。
パラフレーズ生成と機械翻訳の実験により,提案手法が自己回帰ベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-20T12:16:31Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Sequentially Controlled Text Generation [97.22539956688443]
GPT-2は、驚くほど人間らしく、長い文書が混ざり合ったり、人間のような文章構造に従わなかったりする文を生成する。
本研究では,長距離テキストにおける命令構造の問題について検討する。
生成と編集が可能な逐次制御型テキスト生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-01-05T21:23:51Z) - RSTGen: Imbuing Fine-Grained Interpretable Control into Long-FormText
Generators [26.27412809287025]
RSTGenは、生成されたテキストの談話構造、セマンティクス、トピックを制御するフレームワークである。
オープンジェネレーション評価において、生成したテキストの構造的言論と意味的特徴を制御できるモデルの能力を実証する。
論文 参考訳(メタデータ) (2022-05-25T09:06:04Z) - Attend, Memorize and Generate: Towards Faithful Table-to-Text Generation
in Few Shots [58.404516361586325]
Few-shot table-to-text generation は、限られたデータを用いてテーブル内容を伝えるために、流動的で忠実な文を構成するタスクである。
本稿では,人間のテキスト生成プロセスに触発された新しい手法,覚醒と生成(AMG)を提案する。
論文 参考訳(メタデータ) (2022-03-01T20:37:20Z) - Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence [59.51720326054546]
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
論文 参考訳(メタデータ) (2021-05-19T07:29:08Z) - Exemplar-Controllable Paraphrasing and Translation using Bitext [57.92051459102902]
私たちは、バイリンガルテキスト(bitext)からのみ学ぶことができるように、以前の作業からモデルを適用する。
提案した1つのモデルでは、両言語で制御されたパラフレーズ生成と、両言語で制御された機械翻訳の4つのタスクを実行することができる。
論文 参考訳(メタデータ) (2020-10-12T17:02:50Z) - Syntax-driven Iterative Expansion Language Models for Controllable Text
Generation [2.578242050187029]
本稿では,ニューラルテキスト生成に構文的帰納バイアスを導入するための新しいパラダイムを提案する。
実験の結果,このパラダイムはテキスト生成に有効であり,LSTMとトランスフォーマーの質と同等の多様性を持つことがわかった。
論文 参考訳(メタデータ) (2020-04-05T14:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。