論文の概要: Plug-and-Play Recipe Generation with Content Planning
- arxiv url: http://arxiv.org/abs/2212.05093v1
- Date: Fri, 9 Dec 2022 19:39:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:02:41.376023
- Title: Plug-and-Play Recipe Generation with Content Planning
- Title(参考訳): コンテンツプランニングによるプラグアンドプレイレシピ生成
- Authors: Yinhong Liu, Yixuan Su, Ehsan Shareghi and Nigel Collier
- Abstract要約: 本稿では,生成されたテキストのグローバルなコンテンツプランを明示的にモデル化するフレームワークを提案する。
プラグイン・アンド・プレイ方式で自然言語シーケンスとグローバルコンテンツプランの同時配信を最適化する。
本モデルは,レシピ生成作業における最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 28.65323853250831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent pre-trained language models have shown promising capabilities in
generating fluent and realistic natural language text. However, generating
multi-sentence text with global content planning has been a long-existing
research question. Current approaches for controlled text generation can hardly
address this issue, as they usually condition on single known control
attributes. In this study, we propose a low-cost yet effective framework which
explicitly models the global content plan of the generated text. Specifically,
it optimizes the joint distribution of the natural language sequence and the
global content plan in a plug-and-play manner. We conduct extensive experiments
on the well-established Recipe1M+ benchmark. Both automatic and human
evaluations verify that our model achieves the state-of-the-art performance on
the task of recipe generation
- Abstract(参考訳): 最近の事前学習された言語モデルは、フルーエントで現実的な自然言語テキストを生成する有望な能力を示している。
しかし、グローバルコンテンツプランニングによる多文テキストの生成は、長年にわたる研究課題である。
制御されたテキスト生成に対する現在のアプローチは、通常単一の既知の制御属性を条件として、この問題にほとんど対処できない。
本研究では,生成されたテキストのグローバルコンテンツプランを明示的にモデル化する低コストかつ効果的なフレームワークを提案する。
具体的には、自然言語系列とグローバルコンテンツ計画の合同分布をプラグ・アンド・プレイ方式で最適化する。
定評のある recipe1m+ ベンチマークで広範な実験を行った。
自動評価と人的評価は、我々のモデルがレシピ生成タスクにおける最先端のパフォーマンスを達成することを検証する
関連論文リスト
- Harnessing the Plug-and-Play Controller by Prompting [12.705251690623495]
本稿では,事前学習言語モデル(PLM)を用いたテキスト生成におけるフレキシブル属性制御手法を提案する。
提案手法は、生成過程をPPCで導くことにより、生成したテキストの流布率を高めることを目的としている。
論文 参考訳(メタデータ) (2024-02-06T17:18:25Z) - Text-Blueprint: An Interactive Platform for Plan-based Conditional
Generation [84.95981645040281]
プランニングは条件付き生成を不透明にし、基礎を固める上で有用な中間ステップである。
本稿では,問合せ-問合せ-問合せ-問合せペアを用いて,問合せに焦点を絞った要約のためのWebブラウザによる実演を紹介する。
論文 参考訳(メタデータ) (2023-04-28T18:14:48Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Coalescing Global and Local Information for Procedural Text
Understanding [70.10291759879887]
完全な手続き的理解ソリューションは、入力のローカル・グローバル・ビューとアウトプットのグローバル・ビューの3つの中核的な側面を組み合わせるべきである。
本稿では,エンティティと時間表現を構築する新しいモデルであるCoalescing Global and Local InformationCGを提案する。
一般的な手続き的テキスト理解データセットの実験は、我々のモデルが最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2022-08-26T19:16:32Z) - Outline to Story: Fine-grained Controllable Story Generation from
Cascaded Events [39.577220559911055]
長文のきめ細かい制御が可能な生成のためのテストベッドとして,"Outline to Story" (O2S) という新しいタスクを提案する。
次に、最新のキーワード抽出技術で構築された将来のベンチマーク用のデータセットを作成します。
論文 参考訳(メタデータ) (2021-01-04T08:16:21Z) - Few-Shot Text Generation with Pattern-Exploiting Training [12.919486518128734]
本稿では,テキスト生成タスクにも基礎となるアイデアが適用可能であることを示す。
最近提案された少数のショットアプローチであるPattern-Exploiting Training(PET)を、テキスト生成タスクで生成言語モデルを微調整するために適用します。
論文 参考訳(メタデータ) (2020-12-22T10:53:07Z) - Facts2Story: Controlling Text Generation by Key Facts [0.0]
自然言語で表現された一連の事実を、より長い物語に展開し、制御された生成タスクを提案する。
我々は、GPT2のような自動回帰型一方向言語モデルは、より良い流動性を生み出すが、彼らは要求された事実に従うのに苦労することを示した。
本稿では,要求されるコンテンツに固執しながら,競争的フラッテンシーを生み出すプラン・アンド・クローズモデル(微調整xlnet)を提案する。
論文 参考訳(メタデータ) (2020-12-08T10:14:29Z) - Progressive Generation of Long Text with Pretrained Language Models [83.62523163717448]
GPT-2のような大量のテキストコーパスで事前訓練された大規模言語モデル(LM)は、強力なオープンドメインテキストジェネレータである。
このようなモデルが、特に小さなコーパス上のターゲットドメインに微調整された場合、コヒーレントな長いテキストパスを生成することは依然として困難である。
本稿では,低解像度から高解像度の画像に触発されて,テキストを段階的に生成する簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2020-06-28T21:23:05Z) - A Multi-Perspective Architecture for Semantic Code Search [58.73778219645548]
テキストマッチングのための新しい多言語間ニューラルネットワークを提案する。
CoNaLaデータセットを用いた実験により,提案したモデルでは,従来の手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-05-06T04:46:11Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z) - QURIOUS: Question Generation Pretraining for Text Generation [13.595014409069584]
本稿では,テキスト生成目標に適合する事前学習手法として質問生成を提案する。
本手法で事前訓練したテキスト生成モデルは,入力の本質を理解するのが得意であり,目的タスクに適した言語モデルである。
論文 参考訳(メタデータ) (2020-04-23T08:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。