論文の概要: Comprehending Spatio-temporal Data via Cinematic Storytelling using Large Language Models
- arxiv url: http://arxiv.org/abs/2510.17301v1
- Date: Mon, 20 Oct 2025 08:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.371299
- Title: Comprehending Spatio-temporal Data via Cinematic Storytelling using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたシネマティック・ストーリーテリングによる時空間データの補完
- Authors: Panos Kalnis. Shuo Shang, Christian S. Jensen,
- Abstract要約: MapMuseは、S時間データを解釈するためのストーリーテリングベースのフレームワークである。
我々は、データが洞察的・時間的情報視覚化からストーリーテリングを促進すると論じている。
目標は、データの複雑さと人間の理解のギャップを埋めることだ。
- 参考スコア(独自算出の注目度): 14.567510932057404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatio-temporal data captures complex dynamics across both space and time, yet traditional visualizations are complex, require domain expertise and often fail to resonate with broader audiences. Here, we propose MapMuse, a storytelling-based framework for interpreting spatio-temporal datasets, transforming them into compelling, narrative-driven experiences. We utilize large language models and employ retrieval augmented generation (RAG) and agent-based techniques to generate comprehensive stories. Drawing on principles common in cinematic storytelling, we emphasize clarity, emotional connection, and audience-centric design. As a case study, we analyze a dataset of taxi trajectories. Two perspectives are presented: a captivating story based on a heat map that visualizes millions of taxi trip endpoints to uncover urban mobility patterns; and a detailed narrative following a single long taxi journey, enriched with city landmarks and temporal shifts. By portraying locations as characters and movement as plot, we argue that data storytelling drives insight, engagement, and action from spatio-temporal information. The case study illustrates how MapMuse can bridge the gap between data complexity and human understanding. The aim of this short paper is to provide a glimpse to the potential of the cinematic storytelling technique as an effective communication tool for spatio-temporal data, as well as to describe open problems and opportunities for future research.
- Abstract(参考訳): 時空間データは空間と時間の両方にわたる複雑なダイナミクスをキャプチャするが、従来の視覚化は複雑であり、ドメインの専門知識を必要とし、多くの場合、広い聴衆と共鳴することができない。
本稿では、時空間データセットを解釈し、説得力のある物語駆動体験に変換するストーリーテリングベースのフレームワークであるMapMuseを提案する。
大規模言語モデルを用いて、検索拡張生成(RAG)とエージェントベースの手法を用いて包括的なストーリーを生成する。
映画のストーリーテリングに共通する原則に基づいて、明快さ、感情的なつながり、オーディエンス中心のデザインを強調します。
ケーススタディとして、タクシーの軌跡のデータセットを解析する。
都市の移動パターンを明らかにするために、何百万ものタクシー旅行の終点を可視化するヒートマップに基づく魅惑的な物語と、都市のランドマークと時間シフトに富んだ1回の長いタクシー旅行に続く詳細な物語である。
場所を登場人物や移動をプロットとして表現することで、データのストーリーテリングは時空間情報から洞察、エンゲージメント、行動を促進すると論じる。
ケーススタディは、MapMuseがデータの複雑さと人間の理解のギャップを埋める方法を示している。
本論文の目的は,時空間データのための効果的なコミュニケーションツールとして,映画のストーリーテリング技術の可能性を垣間見るとともに,今後の研究の機会と課題について述べることである。
関連論文リスト
- Strefer: Empowering Video LLMs with Space-Time Referring and Reasoning via Synthetic Instruction Data [100.5266292850922]
Streferはビデオ大モデルに参照と推論機能を持たせるために設計された合成データ生成フレームワークである。
Streferは、時間的に密度が高くきめ細かなビデオメタデータを擬似アノテーションするデータエンジンを使用して、多様な命令生成データを生成する。
我々のアプローチは、ビデオLLMが空間的および時間的参照を解釈する能力を高め、現実のAIコンパニオンに不可欠な、より汎用的で時空間対応の推論を育む。
論文 参考訳(メタデータ) (2025-09-03T17:33:20Z) - Story Ribbons: Reimagining Storyline Visualizations with Large Language Models [39.0439095287205]
大規模言語モデル(LLM)は、既存のストーリーラインの可視化技術の拡張と再構成に使用されている。
小説や脚本から関連する物語情報を自動抽出するLLM駆動型データ解析パイプラインを提案する。
次に、このパイプラインを適用して、初心者や専門文献アナリストが詳細な性格やテーマの軌跡を探索するのに役立つインタラクティブな可視化システムであるStory Ribbonsを作成します。
論文 参考訳(メタデータ) (2025-08-09T01:49:30Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - DataNarrative: Automated Data-Driven Storytelling with Visualizations and Texts [27.218934418961197]
データストーリ生成のための新しいタスクと,さまざまなソースから1,449のストーリを含むベンチマークを導入する。
2つのLLMエージェントを用いたマルチエージェントフレームワークを提案する。
我々のエージェント・フレームワークは一般的にモデルベースと人的評価の両方において非エージェント・フレームワークよりも優れていますが、結果はデータ・ストーリー・ジェネレーションにおけるユニークな課題を明らかにします。
論文 参考訳(メタデータ) (2024-08-09T21:31:33Z) - Narrative Maps: An Algorithmic Approach to Represent and Extract
Information Narratives [6.85316573653194]
本稿では、物語表現の理論と現代のオンラインシステムのデータを組み合わせる。
物語地図の表現は、物語の中の出来事と物語を、地図上のランドマークとルートのシリーズとして描いている。
我々の発見は、情報アナリスト、計算ジャーナリスト、誤情報研究者に影響を及ぼす。
論文 参考訳(メタデータ) (2020-09-09T18:30:44Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z) - Spatio-Temporal Graph for Video Captioning with Knowledge Distillation [50.034189314258356]
空間と時間におけるオブジェクトの相互作用を利用したビデオキャプションのためのグラフモデルを提案する。
我々のモデルは解釈可能なリンクを構築し、明示的な視覚的グラウンドを提供することができる。
オブジェクト数の変動による相関を回避するため,オブジェクト認識型知識蒸留機構を提案する。
論文 参考訳(メタデータ) (2020-03-31T03:58:11Z) - Where Does It Exist: Spatio-Temporal Video Grounding for Multi-Form
Sentences [107.0776836117313]
STVGは、トリミングされていないビデオと宣言的/解釈的な文が与えられた場合、クエリされたオブジェクトの時間管をローカライズすることを目的としている。
既存の手法では、非効率なチューブ前世代と新しいオブジェクト関係モデリングの欠如により、STVGタスクに対処できない。
本稿では,この課題に対する宣言型時間グラフ推論ネットワーク(STGRN)を提案する。
論文 参考訳(メタデータ) (2020-01-19T19:53:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。