論文の概要: GRIM: GRaph-based Interactive narrative visualization for gaMes
- arxiv url: http://arxiv.org/abs/2311.09213v1
- Date: Wed, 15 Nov 2023 18:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 14:28:52.917366
- Title: GRIM: GRaph-based Interactive narrative visualization for gaMes
- Title(参考訳): GRIM:gaMesのためのGRaphベースのインタラクティブな物語可視化
- Authors: Jorge Leandro, Sudha Rao, Michael Xu, Weijia Xu, Nebosja Jojic, Chris
Brockett, and Bill Dolan
- Abstract要約: textbfGRIMは、高レベルの物語記述と制約にマッチする分岐したストーリーラインを持つリッチな物語グラフを生成する。
ゲームデザイナは、オリジナルの物語や制約に適合する新しいサブグラフを自動的に生成することで、インタラクティブにグラフを編集することができる。
GPT-4と協調してtextbfGRIM を用いることで、コンテキスト制約の異なる4つの有名な物語の分岐物語を生成する。
- 参考スコア(独自算出の注目度): 15.43734266732214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue-based Role Playing Games (RPGs) require powerful storytelling. The
narratives of these may take years to write and typically involve a large
creative team. In this work, we demonstrate the potential of large generative
text models to assist this process. \textbf{GRIM}, a prototype
\textbf{GR}aph-based \textbf{I}nteractive narrative visualization system for
ga\textbf{M}es, generates a rich narrative graph with branching storylines that
match a high-level narrative description and constraints provided by the
designer. Game designers can interactively edit the graph by automatically
generating new sub-graphs that fit the edits within the original narrative and
constraints. We illustrate the use of \textbf{GRIM} in conjunction with GPT-4,
generating branching narratives for four well-known stories with different
contextual constraints.
- Abstract(参考訳): 対話型ロールプレイングゲーム(RPG)は強力なストーリーテリングを必要とする。
これらの物語は書くのに何年もかかり、典型的には大きな創造的なチームを伴う。
本研究では,このプロセスを支援する大規模生成テキストモデルの可能性を示す。
Ga\textbf{M}esのためのプロトタイプ \textbf{GR}aph-based \textbf{I}nteractive narrative visualization system である \textbf{GRIM} は、高レベルな物語記述とデザイナが提供する制約にマッチする分岐ストーリーラインを備えたリッチな物語グラフを生成する。
ゲームデザイナは、オリジナルの物語や制約に適合する新しいサブグラフを自動的に生成することで、インタラクティブにグラフを編集することができる。
本稿では,gpt-4と組み合わせて,コンテキスト制約の異なる4つのよく知られたストーリの分岐ナラティブを生成する,\textbf{grim} の使用例を示す。
関連論文リスト
- GPT4SGG: Synthesizing Scene Graphs from Holistic and Region-specific
Narratives [69.36723767339001]
GPT4SGGを導入し、全体像と地域固有の物語からシーングラフを合成する。
このような画像データの表現とタスク固有のプロンプトにより、LCM、特にGPT-4はシーングラフを直接「擬似ラベル」として合成する。
GPT4SGGは画像キャプチャデータに基づいて訓練されたSGGモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-12-07T14:11:00Z) - Visual Storytelling with Question-Answer Plans [70.89011289754863]
本稿では、事前訓練された言語モデルと計画に視覚表現を統合する新しいフレームワークを提案する。
我々のモデルは、画像列を視覚的な接頭辞、つまり言語モデルで解釈できる連続的な埋め込みの列に変換する。
また、一連の質問と回答のペアを青写真プランとして利用して、健全な視覚概念を選択し、物語にどのように組み立てるべきかを決定する。
論文 参考訳(メタデータ) (2023-10-08T21:45:34Z) - Intelligent Grimm -- Open-ended Visual Storytelling via Latent Diffusion
Models [70.86603627188519]
我々は,オープンエンドなビジュアルストーリーテリングとして表現された,与えられたストーリーラインに基づいてコヒーレントな画像列を生成するという,斬新で挑戦的な課題に焦点をあてる。
本稿では,新しい視覚言語コンテキストモジュールを用いた学習に基づく自動回帰画像生成モデル(StoryGen)を提案する。
StoryGenは最適化なしに文字を一般化することができ、一貫性のあるコンテンツと一貫した文字で画像列を生成する。
論文 参考訳(メタデータ) (2023-06-01T17:58:50Z) - Infusing Commonsense World Models with Graph Knowledge [89.27044249858332]
オープンワールドテキストアドベンチャーゲームにおける物語生成の設定について検討する。
基礎となるゲーム状態のグラフ表現は、接地グラフ表現と自然言語記述とアクションの両方を消費し出力するモデルを訓練するために使用することができる。
論文 参考訳(メタデータ) (2023-01-13T19:58:27Z) - Story Designer: Towards a Mixed-Initiative Tool to Create Narrative
Structures [4.4447051343759965]
本稿では,進化ダンジョンデザイナ(EDD)上に構築された複合開始型共同創造型物語構造ツールであるストーリーデザイナについて述べる。
ストーリーデザイナは、ストーリー・デザイナが物語グラフと呼ばれるグラフ構造に相互接続することで、完全な物語構造を構成するために、ストーリー・デザイナのためのビルディング・ブロックとしてトロープを使用する。
同時に、EDD内で設計されたレベルを物語の構造の制約として使用し、レベル設計と物語の両方に干渉する。
論文 参考訳(メタデータ) (2022-10-11T16:11:32Z) - StoryDALL-E: Adapting Pretrained Text-to-Image Transformers for Story
Continuation [76.44802273236081]
生成したビジュアルストーリーをソースイメージに条件付けしたストーリー継続のためのモデルであるStoryDALL-Eを開発した。
提案手法は, ストーリー継続のためのGANモデルよりも優れており, 画像からの視覚要素のコピーを容易にする。
全体として、本研究は、事前訓練されたテキスト-画像合成モデルがストーリー継続のような複雑で低リソースなタスクに適応できることを実証している。
論文 参考訳(メタデータ) (2022-09-13T17:47:39Z) - Stylized Story Generation with Style-Guided Planning [38.791298336259146]
そこで本稿では,先行する文脈を条件として,新たなタスク,スタイル化されたストーリージェネレーション,すなわちスペクティフィドスタイルでストーリーを生成することを提案する。
我々のモデルは、ROCStoriesデータセットに基づいて、エモオプション駆動またはイベント駆動のストーリーを制御できる。
論文 参考訳(メタデータ) (2021-05-18T15:55:38Z) - Consistency and Coherency Enhanced Story Generation [35.08911595854691]
生成したストーリーの一貫性と一貫性を高めるための2段階生成フレームワークを提案する。
第1段は物語の筋書きや出来事を描いた物語の輪郭を整理し、第2段は完全な物語へと輪郭を広げることである。
さらに、コア参照監視信号は、コア参照エラーを低減し、コア参照一貫性を向上させるために組み込まれている。
論文 参考訳(メタデータ) (2020-10-17T16:40:37Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。