論文の概要: Story Ribbons: Reimagining Storyline Visualizations with Large Language Models
- arxiv url: http://arxiv.org/abs/2508.06772v1
- Date: Sat, 09 Aug 2025 01:49:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.542927
- Title: Story Ribbons: Reimagining Storyline Visualizations with Large Language Models
- Title(参考訳): Story Ribbons: 大きな言語モデルでストーリーラインの可視化を想像する
- Authors: Catherine Yeh, Tara Menon, Robin Singh Arya, Helen He, Moira Weigel, Fernanda Viégas, Martin Wattenberg,
- Abstract要約: 大規模言語モデル(LLM)は、既存のストーリーラインの可視化技術の拡張と再構成に使用されている。
小説や脚本から関連する物語情報を自動抽出するLLM駆動型データ解析パイプラインを提案する。
次に、このパイプラインを適用して、初心者や専門文献アナリストが詳細な性格やテーマの軌跡を探索するのに役立つインタラクティブな可視化システムであるStory Ribbonsを作成します。
- 参考スコア(独自算出の注目度): 39.0439095287205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analyzing literature involves tracking interactions between characters, locations, and themes. Visualization has the potential to facilitate the mapping and analysis of these complex relationships, but capturing structured information from unstructured story data remains a challenge. As large language models (LLMs) continue to advance, we see an opportunity to use their text processing and analysis capabilities to augment and reimagine existing storyline visualization techniques. Toward this goal, we introduce an LLM-driven data parsing pipeline that automatically extracts relevant narrative information from novels and scripts. We then apply this pipeline to create Story Ribbons, an interactive visualization system that helps novice and expert literary analysts explore detailed character and theme trajectories at multiple narrative levels. Through pipeline evaluations and user studies with Story Ribbons on 36 literary works, we demonstrate the potential of LLMs to streamline narrative visualization creation and reveal new insights about familiar stories. We also describe current limitations of AI-based systems, and interaction motifs designed to address these issues.
- Abstract(参考訳): 文学の分析には、文字、場所、テーマ間の相互作用を追跡することが含まれる。
可視化は、これらの複雑な関係のマッピングと分析を容易にする可能性があるが、構造化されていないストーリーデータから構造化された情報をキャプチャすることは依然として困難である。
大規模言語モデル(LLM)が進歩を続けるにつれ、既存のストーリーラインの可視化技術の拡張と再構築にテキスト処理と分析機能を利用する機会が得られます。
この目標に向けて,小説や脚本から関連する物語情報を自動抽出するLLM駆動型データ解析パイプラインを導入する。
このパイプラインを適用して、対話型可視化システムであるStory Ribbonsを開発した。これは初心者や専門家の文献分析者が、複数の物語レベルで詳細なキャラクターやテーマの軌跡を探索するのに役立つ。
ストーリー・リボンズ(Story Ribbons)による36の文学作品のパイプライン評価とユーザ・スタディを通じて、物語の可視化作成を効率化し、慣れ親しんだストーリーに関する新たな洞察を明らかにするLLMの可能性を実証する。
AIベースのシステムの現在の制限や、これらの問題に対処するために設計されたインタラクションモチーフについても説明します。
関連論文リスト
- Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - DataNarrative: Automated Data-Driven Storytelling with Visualizations and Texts [27.218934418961197]
データストーリ生成のための新しいタスクと,さまざまなソースから1,449のストーリを含むベンチマークを導入する。
2つのLLMエージェントを用いたマルチエージェントフレームワークを提案する。
我々のエージェント・フレームワークは一般的にモデルベースと人的評価の両方において非エージェント・フレームワークよりも優れていますが、結果はデータ・ストーリー・ジェネレーションにおけるユニークな課題を明らかにします。
論文 参考訳(メタデータ) (2024-08-09T21:31:33Z) - Improving Visual Storytelling with Multimodal Large Language Models [1.325953054381901]
本稿では,大規模言語モデル(LLM)と大規模視覚言語モデル(LVLM)を活用した新しいアプローチを提案する。
様々な視覚的ストーリーからなる新しいデータセットを導入し、詳細なキャプションとマルチモーダル要素を付加する。
本手法では,教師付き学習と強化学習を組み合わせてモデルを微調整し,物語生成能力を向上する。
論文 参考訳(メタデータ) (2024-07-02T18:13:55Z) - TARN-VIST: Topic Aware Reinforcement Network for Visual Storytelling [14.15543866199545]
クロスモーダルなタスクとして、視覚的なストーリーテリングは、順序付けられた画像シーケンスのためのストーリーを自動的に生成することを目的としている。
視覚的ストーリーテリングのための新しい手法,Topic Aware Reinforcement Network(TARN-VIST)を提案する。
特に,視覚的,言語的両面から,物語の話題情報を事前に抽出した。
論文 参考訳(メタデータ) (2024-03-18T08:01:23Z) - StoryDALL-E: Adapting Pretrained Text-to-Image Transformers for Story
Continuation [76.44802273236081]
生成したビジュアルストーリーをソースイメージに条件付けしたストーリー継続のためのモデルであるStoryDALL-Eを開発した。
提案手法は, ストーリー継続のためのGANモデルよりも優れており, 画像からの視覚要素のコピーを容易にする。
全体として、本研究は、事前訓練されたテキスト-画像合成モデルがストーリー継続のような複雑で低リソースなタスクに適応できることを実証している。
論文 参考訳(メタデータ) (2022-09-13T17:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。