論文の概要: TopNet: Learning from Neural Topic Model to Generate Long Stories
- arxiv url: http://arxiv.org/abs/2112.07259v1
- Date: Tue, 14 Dec 2021 09:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 14:38:56.127211
- Title: TopNet: Learning from Neural Topic Model to Generate Long Stories
- Title(参考訳): TopNet: ニューラルネットワークのトピックモデルから学び、長いストーリーを生成する
- Authors: Yazheng Yang, Boyuan Pan, Deng Cai, Huan Sun
- Abstract要約: Long Story Generation (LSG) は自然言語処理における目標の1つである。
短い入力を補完する高品質なスケルトン語を得るために,emphTopNetを提案する。
提案手法は骨格語選択に極めて有効であり, 自動評価と人的評価の両方において最先端のモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 43.5564336855688
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Long story generation (LSG) is one of the coveted goals in natural language
processing. Different from most text generation tasks, LSG requires to output a
long story of rich content based on a much shorter text input, and often
suffers from information sparsity. In this paper, we propose \emph{TopNet} to
alleviate this problem, by leveraging the recent advances in neural topic
modeling to obtain high-quality skeleton words to complement the short input.
In particular, instead of directly generating a story, we first learn to map
the short text input to a low-dimensional topic distribution (which is
pre-assigned by a topic model). Based on this latent topic distribution, we can
use the reconstruction decoder of the topic model to sample a sequence of
inter-related words as a skeleton for the story. Experiments on two benchmark
datasets show that our proposed framework is highly effective in skeleton word
selection and significantly outperforms the state-of-the-art models in both
automatic evaluation and human evaluation.
- Abstract(参考訳): Long Story Generation (LSG) は自然言語処理における目標の1つである。
ほとんどのテキスト生成タスクと異なり、lsgは、非常に短いテキスト入力に基づいて、リッチコンテンツの長いストーリーを出力する必要があり、しばしば情報不足に苦しむ。
本稿では,近年のニューラル・トピック・モデリングの進歩を活かし,短い入力を補完するために高品質なスケルトン語を得ることにより,この問題を緩和するための \emph{topnet} を提案する。
特に、ストーリーを直接生成するのではなく、短いテキスト入力を低次元のトピック分布(トピックモデルによって事前に割り当てられる)にマップすることを学びます。
この潜在トピック分布に基づいて、トピックモデルの再構成デコーダを使用して、ストーリーのスケルトンとして関連する単語のシーケンスをサンプリングすることができる。
2つのベンチマークデータセットを用いた実験の結果,提案手法は骨格語選択に極めて有効であり,自動評価と人的評価の両方において最先端モデルよりも優れていた。
関連論文リスト
- Enhancing Short-Text Topic Modeling with LLM-Driven Context Expansion and Prefix-Tuned VAEs [25.915607750636333]
本稿では,大規模言語モデル(LLM)を利用して,トピックモデリングを適用する前に,短いテキストをより詳細なシーケンスに拡張する手法を提案する。
提案手法は,データ空間が極端である実世界のデータセットに対する広範な実験により,短文のトピックモデリング性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-04T01:28:56Z) - Let the Pretrained Language Models "Imagine" for Short Texts Topic
Modeling [29.87929724277381]
短いテキストでは、共起情報は最小限であり、結果として文書表現の特徴が分散する。
既存のトピックモデル(確率的あるいは神経的)は、ほとんどの場合、一貫性のあるトピックを生成するためにパターンのマイニングに失敗します。
既存の事前学習言語モデル(PLM)を用いて、短いテキストを長いシーケンスに拡張する。
論文 参考訳(メタデータ) (2023-10-24T00:23:30Z) - SLCNN: Sentence-Level Convolutional Neural Network for Text
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は,テキスト分類のタスクにおいて顕著な成功を収めている。
CNNを用いたテキスト分類のための新しいベースラインモデルが研究されている。
結果から,提案したモデルの性能は,特に長いドキュメントにおいて向上していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:16:02Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Topic-Aware Encoding for Extractive Summarization [15.113768658584979]
この問題に対処するために,文書要約のためのトピック認識符号化を提案する。
ニューラルネットワークに基づく文レベルの表現学習にニューラルトピックモデルを追加し、中心トピック情報を適切に検討する。
3つの公開データセットの実験結果は、我々のモデルが最先端のモデルより優れていることを示している。
論文 参考訳(メタデータ) (2021-12-17T15:26:37Z) - Cue Me In: Content-Inducing Approaches to Interactive Story Generation [74.09575609958743]
本研究では,対話型物語生成の課題に焦点をあてる。
本稿では、この追加情報を効果的に活用するための2つのコンテンツ誘導手法を提案する。
自動評価と人的評価の両方による実験結果から,これらの手法がよりトポロジ的な一貫性とパーソナライズされたストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2020-10-20T00:36:15Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - Neural Data-to-Text Generation via Jointly Learning the Segmentation and
Correspondence [48.765579605145454]
対象のテキストを断片単位に明示的に分割し,それらのデータ対応と整合させることを提案する。
結果として生じるアーキテクチャは、ニューラルアテンションモデルと同じ表現力を維持している。
E2EとWebNLGのベンチマークでは、提案モデルがニューラルアテンションよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2020-05-03T14:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。