論文の概要: A Character-Centric Creative Story Generation via Imagination
- arxiv url: http://arxiv.org/abs/2409.16667v1
- Date: Wed, 25 Sep 2024 06:54:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 05:12:32.841367
- Title: A Character-Centric Creative Story Generation via Imagination
- Title(参考訳): イマジネーションによるキャラクター中心の創造的ストーリー生成
- Authors: Kyeongman Park, Minbeom Kim, Kyomin Jung,
- Abstract要約: 多様な詳細なストーリ要素を持つ創造的なストーリ生成は、大規模な言語モデルの長年の目標である。
我々はCCI(Character-centric Creative Story Generation via Imagination)と呼ばれる新しいストーリー生成フレームワークを紹介する。
CCIは創造的ストーリー生成のための2つの革新的なモジュールを特徴付けている。IG(Image-Guided Imagination)とMW(Multi-Writer model)である。
- 参考スコア(独自算出の注目度): 15.345466372805516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creative story generation with diverse and detailed story elements is a long-standing goal for large language models. While existing methodologies generate long and coherent stories, they fall significantly short of human capabilities in terms of diversity and character detail. To address this, we introduce a novel story generation framework called CCI (Character-centric Creative story generation via Imagination). CCI features two innovative modules for creative story generation: IG (Image-Guided Imagination) and MW (Multi-Writer model). In the IG module, we utilize DALL-E 3 to create visual representations of key story elements. The IG generates more novel and concrete characters, backgrounds, and main plots than text-only methods. The MW module uses these story elements created by IG to generate multiple description candidates for the protagonist and select the best one. This method incorporates vivid and rich character descriptions into the story. We compared the stories generated by CCI and baseline models through human evaluation and statistical analysis. The results showed significant improvements in the creativity. Furthermore, by enabling interactive multi-modal story generation with users, we have opened up possibilities for human-LLM integration in cultural development.
- Abstract(参考訳): 多様な詳細なストーリ要素を持つ創造的なストーリ生成は、大規模な言語モデルの長年の目標である。
既存の方法論は長く一貫性のあるストーリーを生成するが、多様性とキャラクタの詳細の観点からは人間の能力にはかなり劣っている。
そこで我々はCCI(Character-centric Creative Story Generation via Imagination)と呼ばれる新しいストーリー生成フレームワークを紹介した。
CCIはクリエイティブなストーリー生成のための2つの革新的なモジュール、IG(Image-Guided Imagination)とMW(Multi-Writer model)を備えている。
IGモジュールでは、DALL-E 3を使ってキーストーリー要素を視覚的に表現する。
IGはテキストのみの手法よりも、より斬新で具体的な文字、背景、メインプロットを生成する。
MWモジュールは、IGによって作成されたこれらのストーリー要素を使用して、主人公の複数の記述候補を生成し、最良のものを選択する。
この方法は、鮮明で豊かなキャラクターの記述を物語に取り入れる。
CCIとベースラインモデルで生成されたストーリーを,人間による評価と統計的分析により比較した。
その結果、クリエイティビティは大幅に改善された。
さらに,ユーザとの対話型マルチモーダルストーリー生成の実現により,文化開発における人間-LLM統合の可能性も開かれた。
関連論文リスト
- Crafting Narrative Closures: Zero-Shot Learning with SSM Mamba for Short Story Ending Generation [0.0]
作家たちは創造的なブロックの瞬間に遭遇し、物語の進行路が曖昧になる。
この論文は、革新的なソリューションとして、与えられたプロンプトに基づいてストーリーを完成させるツールを提供することによって、そのような状況に対処するように設計されている。
短いストーリープロンプトを入力することで、ユーザーは1文以上で説明されたストーリーの結論を受け取ることができ、それによってAI駆動の創造性によってストーリーテリングプロセスが強化される。
論文 参考訳(メタデータ) (2024-10-04T18:56:32Z) - Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - SEED-Story: Multimodal Long Story Generation with Large Language Model [66.37077224696242]
SEED-Storyは、MLLM(Multimodal Large Language Model)を利用して拡張マルチモーダルストーリーを生成する新しい手法である。
マルチモーダルアテンションシンク機構を提案し,最大25個のストーリー(トレーニング用10個)を高い効率で自動回帰的に生成する。
本稿では,大規模かつ高解像度なStoryStreamというデータセットを提案する。
論文 参考訳(メタデータ) (2024-07-11T17:21:03Z) - MoPS: Modular Story Premise Synthesis for Open-Ended Automatic Story Generation [50.01780173691132]
モジュール・ストーリー・プリミゼ・シンセサイザー(MoPS)について紹介する。
MoPSはストーリーの前提をバックグラウンドやペルソナなどのモジュールに分割し、自動設計と生成を行う。
より詳細な評価は、我々の合成された施設が多様性、魅力、完全性、独創性に優れていることを示している。
論文 参考訳(メタデータ) (2024-06-09T08:31:14Z) - SARD: A Human-AI Collaborative Story Generation [0.0]
本研究では,大規模言語モデルを用いたマルチチャプタストーリ生成のためのドラッグアンドドロップ型ビジュアルインタフェースであるSARDを提案する。
SARDのユーザビリティとその創造性に対する評価は、物語のノードベースの可視化は、著者がメンタルモデルを構築するのに役立つかもしれないが、著者にとって不必要な精神的オーバーヘッドを生じさせることを示している。
また、AIはストーリーの複雑さに関係なく、語彙的に多様性の低いストーリーを生成することもわかりました。
論文 参考訳(メタデータ) (2024-03-03T17:48:42Z) - GENEVA: GENErating and Visualizing branching narratives using LLMs [15.43734266732214]
textbfGENEVAはプロトタイプツールで、ストーリーラインの分岐と再収束を伴うリッチな物語グラフを生成する。
textbfGENEVAはゲーム開発、シミュレーション、その他のゲームライクな特性を持つアプリケーションを支援する可能性がある。
論文 参考訳(メタデータ) (2023-11-15T18:55:45Z) - Telling Creative Stories Using Generative Visual Aids [52.623545341588304]
私たちはライターに、開始プロンプトからクリエイティブなストーリーを書くように頼み、同じプロンプトから生成するAIモデルによって生成されたビジュアルを提供した。
コントロールグループと比較すると、ビジュアルをストーリー・ライティング・アシストとして使用した作家は、より創造的で、オリジナルで、完全で、視覚的にできるストーリーを著した。
発見は、AIによる横断的なモダリティ入力は、人間とAIの共創において創造性の異なる側面に利益をもたらすが、収束する思考を妨げることを示している。
論文 参考訳(メタデータ) (2021-10-27T23:13:47Z) - FairyTailor: A Multimodal Generative Framework for Storytelling [33.39639788612019]
本稿では,人間とループによるビジュアルストーリーのコクリエーションのためのシステムとデモ,FairyTailorを紹介する。
ユーザは、生成されたテキストを織り、入力で検索した画像を織り込むことで、結束した子供の妖精を作ることができる。
我々の知る限り、これはテキストと画像の両方のインタラクティブなコフォームを可能にするマルチモーダルなストーリー生成のための最初の動的ツールである。
論文 参考訳(メタデータ) (2021-07-13T02:45:08Z) - Inferring the Reader: Guiding Automated Story Generation with
Commonsense Reasoning [12.264880519328353]
生成プロセスにコモンセンス推論を導入するフレームワークであるCommonsense-inference Augmented Neural StoryTelling (CAST)を紹介する。
我々のCAST手法は,既存のモデルよりも,一文字と二文字の両方で,一貫性があり,オントピー的,楽しむことができる。
論文 参考訳(メタデータ) (2021-05-04T06:40:33Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。