論文の概要: DATAWEAVER: Authoring Data-Driven Narratives through the Integrated Composition of Visualization and Text
- arxiv url: http://arxiv.org/abs/2503.22946v1
- Date: Sat, 29 Mar 2025 02:33:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:34:01.971236
- Title: DATAWEAVER: Authoring Data-Driven Narratives through the Integrated Composition of Visualization and Text
- Title(参考訳): DataWEAVER: ビジュアライゼーションとテキストの統合構成によるデータ駆動型ナラティブのオーサリング
- Authors: Yu Fu, Dennis Bromley, Vidya Setlur,
- Abstract要約: 本稿では,テキスト・テキスト・テキスト・ビジュアライゼーション・コンポジションをサポートするオーサリング・フレームワークとシステムであるDataWeaverについて述べる。
DataWeaverを使うと、ユーザは“コールアウト”インタラクションから派生したデータ事実に固定されたデータナラティブを作成できる。
この"vis-to-text"構成に加えて、DataWeaverは"text-initiated"アプローチをサポートし、既存の物語から関連性のあるインタラクティブな可視化を生成する。
- 参考スコア(独自算出の注目度): 9.202553646280784
- License:
- Abstract: Data-driven storytelling has gained prominence in journalism and other data reporting fields. However, the process of creating these stories remains challenging, often requiring the integration of effective visualizations with compelling narratives to form a cohesive, interactive presentation. To help streamline this process, we present an integrated authoring framework and system, DataWeaver, that supports both visualization-to-text and text-to-visualization composition. DataWeaver enables users to create data narratives anchored to data facts derived from "call-out" interactions, i.e., user-initiated highlights of visualization elements that prompt relevant narrative content. In addition to this "vis-to-text" composition, DataWeaver also supports a "text-initiated" approach, generating relevant interactive visualizations from existing narratives. Key findings from an evaluation with 13 participants highlighted the utility and usability of DataWeaver and the effectiveness of its integrated authoring framework. The evaluation also revealed opportunities to enhance the framework by refining filtering mechanisms and visualization recommendations and better support authoring creativity by introducing advanced customization options.
- Abstract(参考訳): データ駆動型ストーリーテリングはジャーナリズムやその他のデータレポーティング分野で注目されている。
しかし、これらのストーリーを作成する過程は依然として困難なままであり、しばしば効果的な視覚化と説得力のある物語を統合して、密集した対話的なプレゼンテーションを形成する必要がある。
このプロセスの合理化を支援するために、可視化・テキスト・テキスト・ビジュアル化とテキスト・ツー・ビジュアル化の両方をサポートする統合オーサリングフレームワークとシステムであるDataWeaverを提案する。
DataWeaverは、ユーザが“コールアウト”インタラクションに由来するデータ事実に固定されたデータナラティブ、すなわち、関連するナラティブコンテンツを誘導する視覚化要素のユーザ主導のハイライトを作成することができる。
この"vis-to-text"構成に加えて、DataWeaverは"text-initiated"アプローチをサポートし、既存の物語から関連性のあるインタラクティブな可視化を生成する。
13人の参加者による評価から得られた重要な発見は、DataWeaverの実用性とユーザビリティと、その統合オーサリングフレームワークの有効性を強調した。
評価では、フィルタリング機構の精細化と視覚化のレコメンデーションによるフレームワークの強化、高度なカスタマイズオプションの導入によるクリエイティビティの創出を支援する機会も明らかにした。
関連論文リスト
- Augmenting a Large Language Model with a Combination of Text and Visual Data for Conversational Visualization of Global Geospatial Data [51.57559025799189]
本稿では,Large Language Model (LLM) をテキストと視覚データの組み合わせで拡張する手法を提案する。
可視化とデータセットのテキスト記述と視覚化のスナップショットを組み合わせることでこの問題に対処する。
論文 参考訳(メタデータ) (2025-01-16T13:16:37Z) - Relation-aware Hierarchical Prompt for Open-vocabulary Scene Graph Generation [14.82606425343802]
Open-vocabulary Scene Graph Generation (OV-SGG)は、視覚的関係表現とオープンな語彙的テキスト表現を整合させることにより、クローズドセットの仮定の限界を克服する。
既存のOV-SGG法は、固定されたテキスト表現によって制約され、画像テキストアライメントの多様性と精度が制限される。
本稿では,対象物と地域固有の関係情報を統合することでテキスト表現を向上させるRAHP(Relation-Aware Hierarchical Prompting)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-26T02:12:37Z) - Context-aware Visual Storytelling with Visual Prefix Tuning and Contrastive Learning [2.401993998791928]
本稿では、モダリティを接続するための軽量な視覚言語マッピングネットワークを訓練するフレームワークを提案する。
視覚的関連性やストーリー情報性も向上するマルチモーダルなコントラスト目標を提案する。
論文 参考訳(メタデータ) (2024-08-12T16:15:32Z) - DataNarrative: Automated Data-Driven Storytelling with Visualizations and Texts [27.218934418961197]
データストーリ生成のための新しいタスクと,さまざまなソースから1,449のストーリを含むベンチマークを導入する。
2つのLLMエージェントを用いたマルチエージェントフレームワークを提案する。
我々のエージェント・フレームワークは一般的にモデルベースと人的評価の両方において非エージェント・フレームワークよりも優れていますが、結果はデータ・ストーリー・ジェネレーションにおけるユニークな課題を明らかにします。
論文 参考訳(メタデータ) (2024-08-09T21:31:33Z) - Towards Unified Multi-granularity Text Detection with Interactive Attention [56.79437272168507]
Detect Any Text"は、シーンテキストの検出、レイアウト分析、ドキュメントページの検出を結合的なエンドツーエンドモデルに統合する高度なパラダイムである。
DATにおける重要なイノベーションは、テキストインスタンスの表現学習を大幅に強化する、粒度横断型アテンションモジュールである。
テストによると、DATは様々なテキスト関連ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-30T07:25:23Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Text-Only Training for Visual Storytelling [107.19873669536523]
視覚条件付きストーリー生成問題として視覚的ストーリーテリングを定式化する。
本稿では,モダリティ間のアライメントとストーリー生成の学習を分離するテキストのみのトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T09:32:17Z) - Melody: A Platform for Linked Open Data Visualisation and Curated
Storytelling [0.0]
MELODYはLinked Open Dataに基づいたデータストーリーをオーサリングするためのWebインターフェースである。
データの普及が不可欠であるプロジェクトにおいて、その潜在的影響を示す。
論文 参考訳(メタデータ) (2023-06-26T16:39:24Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Let the Chart Spark: Embedding Semantic Context into Chart with
Text-to-Image Generative Model [7.587729429265939]
画像視覚化は、データとセマンティックコンテキストを視覚表現にシームレスに統合する。
本稿では,テキストから画像への生成モデルに基づく意味コンテキストをグラフに組み込む新しいシステムであるChartSparkを提案する。
本研究では,テキストアナライザ,編集モジュール,評価モジュールを統合したインタラクティブなビジュアルインタフェースを開発し,画像視覚化の生成,修正,評価を行う。
論文 参考訳(メタデータ) (2023-04-28T05:18:30Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。