論文の概要: Enhancing Generation through Summarization Duality and Explicit Outline
Control
- arxiv url: http://arxiv.org/abs/2305.14459v2
- Date: Sat, 16 Sep 2023 05:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 23:49:24.135301
- Title: Enhancing Generation through Summarization Duality and Explicit Outline
Control
- Title(参考訳): 要約重複と明示的アウトライン制御による生成の強化
- Authors: Yunzhe Li, Qian Chen, Weixiang Yan, Wen Wang, Qinglin Zhang, Hari
Sundaram
- Abstract要約: 本稿では,2段階の要約型アウトライン管理型生成フレームワークを提案する。
このフレームワークは、要約タスクの二重特性を活用して、アウトライン予測を改善する。
生成したアウトラインをより効果的に活用するための新しい明示的アウトライン制御法を提案する。
- 参考スコア(独自算出の注目度): 15.881568820009797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatically open-ended long text generation poses significant challenges
due to semantic incoherence and plot implausibility. Previous works usually
alleviate this problem through outlines in the form of short phrases or
abstractive signals by designing unsupervised tasks, which tend to be unstable
and weakly interpretable.
Assuming that a summary serves as a mature outline, we introduce a two-stage,
summary-enhanced outline supervised generation framework. This framework
leverages the dual characteristics of the summarization task to improve outline
prediction, resulting in more explicit and plausible outlines. Furthermore, we
identify an underutilization issue in outline-based generation with both
standard pretrained language models (e.g., GPT-2, BART) and large language
models (e.g., Vicuna, ChatGPT). To address this, we propose a novel explicit
outline control method for more effective utilization of generated outlines.
- Abstract(参考訳): 自動オープンエンド長文生成は意味的一貫性とプロットの難しさのために大きな課題となる。
従来の研究は通常、教師なしのタスクを設計することで、短いフレーズや抽象的な信号の形で概説することでこの問題を軽減する。
要約が成熟したアウトラインとして機能すると仮定すると、2段階の要約強化されたアウトライン管理生成フレームワークを導入する。
このフレームワークは、要約タスクの二重特性を活用して、アウトライン予測を改善し、より明確で妥当なアウトラインをもたらす。
さらに,標準事前学習言語モデル(GPT-2, BARTなど)と大規模言語モデル(Vicuna, ChatGPTなど)を併用したアウトラインベース生成における不活用問題を特定する。
そこで本研究では,生成されたアウトラインをより効果的に活用するための,新しいアウトライン制御手法を提案する。
関連論文リスト
- Contextualized Diffusion Models for Text-Guided Image and Video Generation [67.69171154637172]
条件拡散モデルは高忠実度テキスト誘導視覚生成および編集において優れた性能を示した。
本研究では,テキスト条件と視覚的サンプル間の相互作用とアライメントを包含するクロスモーダルコンテキストを組み込むことにより,コンテキスト拡散モデル(ContextDiff)を提案する。
理論的導出を伴うDDPMとDDIMの両方にモデルを一般化し、テキスト・ツー・イメージ生成とテキスト・ツー・ビデオ編集という2つの課題を伴う評価において、モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T15:01:16Z) - Exploring Precision and Recall to assess the quality and diversity of LLMs [82.21278402856079]
我々はtextscLlama-2 や textscMistral のような大規模言語モデル (LLM) のための新しい評価フレームワークを提案する。
このアプローチにより、コーパスの整合を必要とせず、生成したテキストの品質と多様性を微妙に評価できる。
論文 参考訳(メタデータ) (2024-02-16T13:53:26Z) - Text2Data: Low-Resource Data Generation with Textual Control [104.38011760992637]
自然言語は、人間が機械とシームレスに対話するための共通かつ直接的な制御信号として機能する。
ラベルのないデータを用いて教師なし拡散モデルを用いて基礎となるデータ分布を理解する新しいアプローチであるText2Dataを提案する。
制御性を確保し、破滅的な忘れを効果的に防止する、新しい制約最適化ベースの学習目標を通じて制御可能な微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - Dynamic Relation Transformer for Contextual Text Block Detection [9.644204545582742]
コンテキストテキストブロック検出は、自然シーンの複雑さの中でコヒーレントテキストブロックを識別するタスクである。
従来の手法では、CTBDはコンピュータビジョンにおける視覚的関係抽出の課題であったり、シーケンスモデリングの問題であったりしていた。
グラフ生成問題として CTBD をフレーム化する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T14:17:59Z) - Sequentially Controlled Text Generation [97.22539956688443]
GPT-2は、驚くほど人間らしく、長い文書が混ざり合ったり、人間のような文章構造に従わなかったりする文を生成する。
本研究では,長距離テキストにおける命令構造の問題について検討する。
生成と編集が可能な逐次制御型テキスト生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-01-05T21:23:51Z) - RSTGen: Imbuing Fine-Grained Interpretable Control into Long-FormText
Generators [26.27412809287025]
RSTGenは、生成されたテキストの談話構造、セマンティクス、トピックを制御するフレームワークである。
オープンジェネレーション評価において、生成したテキストの構造的言論と意味的特徴を制御できるモデルの能力を実証する。
論文 参考訳(メタデータ) (2022-05-25T09:06:04Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - A Causal Lens for Controllable Text Generation [36.26478600135344]
本稿では、原理的因果的観点から制御可能なテキスト生成を定式化することを提案する。
因果関係の定式化の直接的な利点は、生成バイアスを緩和し、制御を改善するためにリッチ因果関係のツールを使用することである。
実験では、制御精度の向上とバイアス低減のために、従来の条件付きモデルよりも因果的アプローチが顕著に優れていることが示された。
論文 参考訳(メタデータ) (2022-01-22T19:31:43Z) - Consistency and Coherency Enhanced Story Generation [35.08911595854691]
生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
論文 参考訳(メタデータ) (2020-10-17T16:40:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。