論文の概要: Guiding Generative Storytelling with Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2505.24803v2
- Date: Mon, 02 Jun 2025 17:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 16:22:43.467617
- Title: Guiding Generative Storytelling with Knowledge Graphs
- Title(参考訳): 知識グラフによる生成的ストーリーテリングの指導
- Authors: Zhijun Pan, Antonios Andronis, Eva Hayek, Oscar AP Wilkinson, Ilya Lasy, Annette Parry, Guy Gadney, Tim J. Smith, Mick Grierson,
- Abstract要約: 大規模言語モデル(LLM)は、自動ストーリ生成において大きな可能性を示しています。
生成的ストーリーテリングを支援するための構造化データの使用は、まだ未定である。
本稿では,ナレッジグラフが物語の質を向上し,ユーザ主導の修正を可能にすることによって,LLMベースのストーリーテリングを向上する方法について検討する。
- 参考スコア(独自算出の注目度): 0.0696538445306483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown great potential in automated story generation, but challenges remain in maintaining long-form coherence and providing users with intuitive and effective control. Retrieval-Augmented Generation (RAG) has proven effective in reducing hallucinations in text generation; however, the use of structured data to support generative storytelling remains underexplored. This paper investigates how knowledge graphs (KGs) can enhance LLM-based storytelling by improving narrative quality and enabling user-driven modifications. We propose a KG-assisted storytelling pipeline and evaluate its effectiveness through a user study with 15 participants. Participants created their own story prompts, generated stories, and edited knowledge graphs to shape their narratives. Through quantitative and qualitative analysis, our findings demonstrate that knowledge graphs significantly enhance story quality in action-oriented and structured narratives within our system settings. Additionally, editing the knowledge graph increases users' sense of control, making storytelling more engaging, interactive, and playful.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自動ストーリ生成において大きな可能性を秘めている。
Retrieval-Augmented Generation (RAG) は、テキスト生成における幻覚の低減に有効であることが証明されているが、生成的なストーリーテリングを支援するために構造化データを使用することは、まだ未定である。
本稿では,ナレッジグラフ(KG)が物語の質を改善し,ユーザ主導の修正を可能にすることで,LLMベースのストーリーテリングをどのように向上させるかを検討する。
KG支援型ストーリーテリングパイプラインを提案し、15人の参加者によるユーザスタディを通じてその有効性を評価する。
参加者は独自のストーリープロンプトを作成し、ストーリーを生成し、ナレッジグラフを編集して物語を形作った。
定量的,質的な分析により,システム設定における行動指向の物語や構造化された物語において,知識グラフは物語の質を著しく向上させることが明らかとなった。
さらに、知識グラフの編集はユーザのコントロール意識を高め、ストーリーテリングをより魅力的でインタラクティブで遊び心のあるものにする。
関連論文リスト
- Learning to Reason for Long-Form Story Generation [98.273323001781]
一般的なストーリー生成タスク(Next-Chapter Prediction)と報酬定式化(Completion Likelihood Improvementによる検証リワード)を提案する。
私たちは、物語の凝縮した情報を推論し、次の章の詳細な計画を作成することを学びます。
私たちの推論は、ストーリージェネレータ作成を支援する章を通じて評価され、トレーニングされていない、教師なしの微調整(SFT)ベースラインと比較されます。
論文 参考訳(メタデータ) (2025-03-28T18:48:26Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - StoryWeaver: A Unified World Model for Knowledge-Enhanced Story Character Customization [36.14275850149665]
本稿では,様々なストーリー関連知識を包括的に表現した新しい知識グラフ,すなわちキャラクタグラフ(textbfCG)を提案する。
次に、リッチテキストセマンティクスと一貫したストーリー視覚化が可能な、キャラクタグラフ(textbfC-CG)によるカスタマイズを実現するイメージジェネレータであるStoryWeaverを紹介する。
論文 参考訳(メタデータ) (2024-12-10T10:16:50Z) - Improving Visual Storytelling with Multimodal Large Language Models [1.325953054381901]
本稿では,大規模言語モデル(LLM)と大規模視覚言語モデル(LVLM)を活用した新しいアプローチを提案する。
様々な視覚的ストーリーからなる新しいデータセットを導入し、詳細なキャプションとマルチモーダル要素を付加する。
本手法では,教師付き学習と強化学習を組み合わせてモデルを微調整し,物語生成能力を向上する。
論文 参考訳(メタデータ) (2024-07-02T18:13:55Z) - GENEVA: GENErating and Visualizing branching narratives using LLMs [15.43734266732214]
textbfGENEVAはプロトタイプツールで、ストーリーラインの分岐と再収束を伴うリッチな物語グラフを生成する。
textbfGENEVAはゲーム開発、シミュレーション、その他のゲームライクな特性を持つアプリケーションを支援する可能性がある。
論文 参考訳(メタデータ) (2023-11-15T18:55:45Z) - The Next Chapter: A Study of Large Language Models in Storytelling [51.338324023617034]
大規模言語モデル(LLM)を用いたプロンプトベース学習の適用は,自然言語処理(NLP)タスクにおいて顕著な性能を示した。
本稿では,LLMのストーリー生成能力と最近のモデルを比較するために,自動評価と人的評価の両方を利用した総合的な調査を行う。
その結果、LLMは他のストーリー生成モデルと比較して、非常に高い品質のストーリーを生成することがわかった。
論文 参考訳(メタデータ) (2023-01-24T02:44:02Z) - Knowledge-Enhanced Personalized Review Generation with Capsule Graph
Neural Network [81.81662828017517]
カプセルグラフニューラルネットワークを用いた知識強調型PRGモデル(Caps-GNN)を提案する。
我々の生成プロセスは、アスペクトシーケンス生成と文生成という2つの大きなステップを含む。
組み込まれた知識グラフは、アスペクトレベルとワードレベルの両方でユーザの好みを高めることができる。
論文 参考訳(メタデータ) (2020-10-04T03:54:40Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。