論文の概要: Crafting Narrative Closures: Zero-Shot Learning with SSM Mamba for Short Story Ending Generation
- arxiv url: http://arxiv.org/abs/2410.10848v1
- Date: Fri, 04 Oct 2024 18:56:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 09:41:10.142912
- Title: Crafting Narrative Closures: Zero-Shot Learning with SSM Mamba for Short Story Ending Generation
- Title(参考訳): 物語のクロージャを制作する - SSM Mambaによるゼロショット学習
- Authors: Divyam Sharma, Divya Santhanam,
- Abstract要約: 作家たちは創造的なブロックの瞬間に遭遇し、物語の進行路が曖昧になる。
この論文は、革新的なソリューションとして、与えられたプロンプトに基づいてストーリーを完成させるツールを提供することによって、そのような状況に対処するように設計されている。
短いストーリープロンプトを入力することで、ユーザーは1文以上で説明されたストーリーの結論を受け取ることができ、それによってAI駆動の創造性によってストーリーテリングプロセスが強化される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Writing stories is an engaging yet challenging endeavor. Often, authors encounter moments of creative block, where the path forward in their narrative becomes obscured. This paper is designed to address such moments by providing an innovative solution: A tool that completes stories based on given prompts. By inputting a short story prompt, users can receive a conclusion to their story, articulated in one sentence or more, thereby enhancing the storytelling process with AI-driven creativity. This tool aims not only to assist authors in navigating writer's block but also to offer a fun and interactive way for anyone to expand on story ideas spontaneously. Through this paper, we explore the intersection of artificial intelligence and creative writing, pushing the boundaries of how stories can be crafted and concluded. To create our final text-generation models, we used a pre-trained GPT-3.5 model and a newly created finetuned SSM-Mamba model, both of which perform well on a comprehensive list of metrics including BERT score, METEOR, BLEU, ROUGE, and Perplexity. The SSM model has also been made public for the NLP community on HuggingFace models as an open source contribution, which for the timebeing is a first of its kind state-space model for story-generation task on HuggingFace.
- Abstract(参考訳): ストーリーを書くことは、魅力的なが挑戦的な試みである。
著者はしばしば創造的なブロックの瞬間に遭遇し、物語の進行路が曖昧になる。
この論文は、革新的なソリューションとして、与えられたプロンプトに基づいてストーリーを完成させるツールを提供することによって、そのような状況に対処するように設計されている。
短いストーリープロンプトを入力することで、ユーザーは1文以上で説明されたストーリーの結論を受け取ることができ、それによってAI駆動の創造性によってストーリーテリングプロセスが強化される。
このツールの目的は、著者のブロックをナビゲートするだけでなく、誰でも自発的にストーリーのアイデアを拡大できる楽しいインタラクティブな方法を提供することである。
本稿では,人工知能と創造的文章の交わりを探求し,ストーリーの作り方と結末の境界を推し進める。
最終的なテキスト生成モデルを作成するために、トレーニング済みのGPT-3.5モデルと、新たに作成されたSSM-Mambaモデルを使用し、BERTスコア、METEOR、BLEU、ROUGE、Perplexityといったメトリクスの総合的なリストでうまく機能する。
SSMモデルは、オープンソースコントリビューションとしてHuggingFaceモデルのNLPコミュニティでも公開されている。
関連論文リスト
- MoPS: Modular Story Premise Synthesis for Open-Ended Automatic Story Generation [50.01780173691132]
モジュール・ストーリー・プリミゼ・シンセサイザー(MoPS)について紹介する。
MoPSはストーリーの前提をバックグラウンドやペルソナなどのモジュールに分割し、自動設計と生成を行う。
より詳細な評価は、我々の合成された施設が多様性、魅力、完全性、独創性に優れていることを示している。
論文 参考訳(メタデータ) (2024-06-09T08:31:14Z) - SARD: A Human-AI Collaborative Story Generation [0.0]
本研究では,大規模言語モデルを用いたマルチチャプタストーリ生成のためのドラッグアンドドロップ型ビジュアルインタフェースであるSARDを提案する。
SARDのユーザビリティとその創造性に対する評価は、物語のノードベースの可視化は、著者がメンタルモデルを構築するのに役立つかもしれないが、著者にとって不必要な精神的オーバーヘッドを生じさせることを示している。
また、AIはストーリーの複雑さに関係なく、語彙的に多様性の低いストーリーを生成することもわかりました。
論文 参考訳(メタデータ) (2024-03-03T17:48:42Z) - Intelligent Grimm -- Open-ended Visual Storytelling via Latent Diffusion
Models [70.86603627188519]
我々は,オープンエンドなビジュアルストーリーテリングとして表現された,与えられたストーリーラインに基づいてコヒーレントな画像列を生成するという,斬新で挑戦的な課題に焦点をあてる。
本稿では,新しい視覚言語コンテキストモジュールを用いた学習に基づく自動回帰画像生成モデル(StoryGen)を提案する。
StoryGenは最適化なしに文字を一般化することができ、一貫性のあるコンテンツと一貫した文字で画像列を生成する。
論文 参考訳(メタデータ) (2023-06-01T17:58:50Z) - Album Storytelling with Iterative Story-aware Captioning and Large
Language Models [86.6548090965982]
私たちはアルバムを鮮明で一貫性のあるストーリーに変える方法を研究し、これは「アルバム・ストーリーテリング」と呼ぶタスクである。
近年のLarge Language Models (LLMs) の進歩により、長いコヒーレントなテキストを生成することが可能になった。
本手法は,アルバムのコヒーレンスと鮮明さを向上し,より正確で魅力的なストーリーを効果的に生成する。
論文 参考訳(メタデータ) (2023-05-22T11:45:10Z) - Conveying the Predicted Future to Users: A Case Study of Story Plot
Prediction [14.036772394560238]
予測されたプロットをナレーションする短い記述を生成するシステムを作成する。
私たちのゴールは、作家が一貫した説得力のあるストーリーアークを作るのを支援することです。
論文 参考訳(メタデータ) (2023-02-17T20:10:55Z) - The Next Chapter: A Study of Large Language Models in Storytelling [51.338324023617034]
大規模言語モデル(LLM)を用いたプロンプトベース学習の適用は,自然言語処理(NLP)タスクにおいて顕著な性能を示した。
本稿では,LLMのストーリー生成能力と最近のモデルを比較するために,自動評価と人的評価の両方を利用した総合的な調査を行う。
その結果、LLMは他のストーリー生成モデルと比較して、非常に高い品質のストーリーを生成することがわかった。
論文 参考訳(メタデータ) (2023-01-24T02:44:02Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Plot and Rework: Modeling Storylines for Visual Storytelling [12.353812582863837]
本稿では,入力画像シーケンスをストーリーグラフとして表現するフレームワークであるPR-VISTについて紹介する。
PR-VISTは反復的なトレーニングプロセスを通じて最終ストーリーを生成することを学ぶ。
アブレーション研究は、プロットとリワークの両方がモデルの優位性に貢献していることを示している。
論文 参考訳(メタデータ) (2021-05-14T16:41:29Z) - Inferring the Reader: Guiding Automated Story Generation with
Commonsense Reasoning [12.264880519328353]
生成プロセスにコモンセンス推論を導入するフレームワークであるCommonsense-inference Augmented Neural StoryTelling (CAST)を紹介する。
我々のCAST手法は,既存のモデルよりも,一文字と二文字の両方で,一貫性があり,オントピー的,楽しむことができる。
論文 参考訳(メタデータ) (2021-05-04T06:40:33Z) - Collaborative Storytelling with Large-scale Neural Language Models [6.0794985566317425]
我々は、人工知能エージェントと人が協力して、交代で追加することでユニークなストーリーを作るという、協調的なストーリーテリングのタスクを紹介します。
本稿では,人間ストーリーテラーと協調して物語を創り出す共同ストーリーテリングシステムについて述べる。
論文 参考訳(メタデータ) (2020-11-20T04:36:54Z) - Cue Me In: Content-Inducing Approaches to Interactive Story Generation [74.09575609958743]
本研究では,対話型物語生成の課題に焦点をあてる。
本稿では、この追加情報を効果的に活用するための2つのコンテンツ誘導手法を提案する。
自動評価と人的評価の両方による実験結果から,これらの手法がよりトポロジ的な一貫性とパーソナライズされたストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2020-10-20T00:36:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。