論文の概要: Feature-Action Design Patterns for Storytelling Visualizations with Time
Series Data
- arxiv url: http://arxiv.org/abs/2402.03116v1
- Date: Mon, 5 Feb 2024 15:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:20:22.443740
- Title: Feature-Action Design Patterns for Storytelling Visualizations with Time
Series Data
- Title(参考訳): 時系列データを用いたストーリーテリング可視化のための特徴表現設計パターン
- Authors: Saiful Khan, Scott Jones, Benjamin Bach, Jaehoon Cha, Min Chen, Julie
Meikle, Jonathan C Roberts, Jeyan Thiyagalingam, Jo Wood, Panagiotis D.
Ritsos
- Abstract要約: 本稿では,時系列データを用いたストーリーテリングの可視化手法を提案する。
新型コロナウイルス(COVID-19)パンデミックの間に時系列データを伝達する必要性から,我々は,物語のメタオーサリングのための新しいコンピュータ支援手法を開発した。
- 参考スコア(独自算出の注目度): 14.417710088310784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a method to create storytelling visualization with time series
data. Many personal decisions nowadays rely on access to dynamic data
regularly, as we have seen during the COVID-19 pandemic. It is thus desirable
to construct storytelling visualization for dynamic data that is selected by an
individual for a specific context. Because of the need to tell data-dependent
stories, predefined storyboards based on known data cannot accommodate dynamic
data easily nor scale up to many different individuals and contexts. Motivated
initially by the need to communicate time series data during the COVID-19
pandemic, we developed a novel computer-assisted method for meta-authoring of
stories, which enables the design of storyboards that include feature-action
patterns in anticipation of potential features that may appear in dynamically
arrived or selected data. In addition to meta-storyboards involving COVID-19
data, we also present storyboards for telling stories about progress in a
machine learning workflow. Our approach is complementary to traditional methods
for authoring storytelling visualization, and provides an efficient means to
construct data-dependent storyboards for different data-streams of similar
contexts.
- Abstract(参考訳): 時系列データを用いたストーリーテリング可視化手法を提案する。
新型コロナウイルス(COVID-19)のパンデミックで見られたように、現在多くの個人的決定は、ダイナミックデータへの定期的にアクセスに依存している。
したがって、特定の文脈で個人が選択した動的データのストーリーテリング可視化を構築することが望ましい。
データに依存したストーリーを伝える必要があるため、既知のデータに基づく事前定義されたストーリーボードは、動的データを容易に扱えず、多くの個人やコンテキストにも拡張できない。
新型コロナウイルス(COVID-19)パンデミックの間、時系列データを伝達する必要性から、私たちは、動的に到着または選択されたデータに現れる可能性のある潜在的な特徴を予測して、機能行動パターンを含むストーリーボードの設計を可能にする、ストーリーのメタオーサリングのための新しいコンピュータ支援手法を開発した。
新型コロナウイルスのデータを含むメタストーリーボードに加えて、機械学習ワークフローの進捗状況を伝えるストーリーボードも提示する。
我々のアプローチは、ストーリーテリングの可視化をオーサリングする従来の手法を補完し、類似したコンテキストの異なるデータストリームに対して、データ依存のストーリーボードを構築する効率的な手段を提供する。
関連論文リスト
- Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - DataNarrative: Automated Data-Driven Storytelling with Visualizations and Texts [27.218934418961197]
データストーリ生成のための新しいタスクと,さまざまなソースから1,449のストーリを含むベンチマークを導入する。
2つのLLMエージェントを用いたマルチエージェントフレームワークを提案する。
我々のエージェント・フレームワークは一般的にモデルベースと人的評価の両方において非エージェント・フレームワークよりも優れていますが、結果はデータ・ストーリー・ジェネレーションにおけるユニークな課題を明らかにします。
論文 参考訳(メタデータ) (2024-08-09T21:31:33Z) - TARN-VIST: Topic Aware Reinforcement Network for Visual Storytelling [14.15543866199545]
クロスモーダルなタスクとして、視覚的なストーリーテリングは、順序付けられた画像シーケンスのためのストーリーを自動的に生成することを目的としている。
視覚的ストーリーテリングのための新しい手法,Topic Aware Reinforcement Network(TARN-VIST)を提案する。
特に,視覚的,言語的両面から,物語の話題情報を事前に抽出した。
論文 参考訳(メタデータ) (2024-03-18T08:01:23Z) - Text-Only Training for Visual Storytelling [107.19873669536523]
視覚条件付きストーリー生成問題として視覚的ストーリーテリングを定式化する。
本稿では,モダリティ間のアライメントとストーリー生成の学習を分離するテキストのみのトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T09:32:17Z) - Local-Global Information Interaction Debiasing for Dynamic Scene Graph
Generation [51.92419880088668]
マルチタスク学習に基づく新しいDynSGGモデルDynSGG-MTLを提案する。
長期的人間の行動は、大域的な制約に適合する複数のシーングラフを生成するためにモデルを監督し、尾の述語を学べないモデルを避ける。
論文 参考訳(メタデータ) (2023-08-10T01:24:25Z) - Intelligent Grimm -- Open-ended Visual Storytelling via Latent Diffusion
Models [70.86603627188519]
我々は,オープンエンドなビジュアルストーリーテリングとして表現された,与えられたストーリーラインに基づいてコヒーレントな画像列を生成するという,斬新で挑戦的な課題に焦点をあてる。
本稿では,新しい視覚言語コンテキストモジュールを用いた学習に基づく自動回帰画像生成モデル(StoryGen)を提案する。
StoryGenは最適化なしに文字を一般化することができ、一貫性のあるコンテンツと一貫した文字で画像列を生成する。
論文 参考訳(メタデータ) (2023-06-01T17:58:50Z) - Detecting and Grounding Important Characters in Visual Stories [18.870236356616907]
本稿では,リッチな文字中心アノテーションを提供するVIST-Characterデータセットを紹介する。
このデータセットに基づいて,重要な文字の検出と,視覚的ストーリーにおける文字のグラウンド化という,2つの新しいタスクを提案する。
本研究では,分布類似性と事前学習された視覚・言語モデルに基づく,シンプルで教師なしのモデルを開発する。
論文 参考訳(メタデータ) (2023-03-30T18:24:06Z) - StoryDALL-E: Adapting Pretrained Text-to-Image Transformers for Story
Continuation [76.44802273236081]
生成したビジュアルストーリーをソースイメージに条件付けしたストーリー継続のためのモデルであるStoryDALL-Eを開発した。
提案手法は, ストーリー継続のためのGANモデルよりも優れており, 画像からの視覚要素のコピーを容易にする。
全体として、本研究は、事前訓練されたテキスト-画像合成モデルがストーリー継続のような複雑で低リソースなタスクに適応できることを実証している。
論文 参考訳(メタデータ) (2022-09-13T17:47:39Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。