論文の概要: A Directed Graph Model and Experimental Framework for Design and Study of Time-Dependent Text Visualisation
- arxiv url: http://arxiv.org/abs/2603.02422v1
- Date: Mon, 02 Mar 2026 22:06:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.557409
- Title: A Directed Graph Model and Experimental Framework for Design and Study of Time-Dependent Text Visualisation
- Title(参考訳): 時間依存型テキスト可視化の設計と研究のためのグラフモデルと実験フレームワーク
- Authors: Songhai Fan, Simon Angus, Tim Dwyer, Ying Yang, Sarah Goodwin, Helen Purchase,
- Abstract要約: 我々は、有向グラフ構造に基づく時間依存テキスト可視化の抽象モデルを開発する。
次にモチーフを蒸留し、テキストが時間的変化にまたがってリンクできる可能性のセットをキャプチャします。
私たちは、各パターンに適合する、架空の、しかし構造化された時間依存のテキストセットを作成します。
- 参考スコア(独自算出の注目度): 14.619428851001521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exponential growth in the quantity of digital news, social media, and other textual sources makes it difficult for humans to keep up with rapidly evolving narratives about world events. Various visualisation techniques have been touted to help people to understand such discourse by exposing relationships between texts (such as news articles) as topics and themes evolve over time. Arguably, the understandability of such visualisations hinges on the assumption that people will be able to easily interpret the relationships in such visual network structures. To test this assumption, we begin by defining an abstract model of time-dependent text visualisation based on directed graph structures. From this model we distill motifs that capture the set of possible ways that texts can be linked across changes in time. We also develop a controlled synthetic text generation methodology that leverages the power of modern LLMs to create fictional, yet structured sets of time-dependent texts that fit each of our patterns. Therefore, we create a clean user study environment (n=30) for participants to identify patterns that best represent a given set of synthetic articles. We find that it is a challenging task for the user to identify and recover the predefined motif. We analyse qualitative data to map an unexpectedly rich variety of user rationales when divergences from expected interpretation occur. A deeper analysis also points to unexpected complexities inherent in the formation of synthetic datasets with LLMs that undermine the study control in some cases. Furthermore, analysis of individual decision-making in our study hints at a future where text discourse visualisation may need to dispense with a one-size-fits-all approach and, instead, should be more adaptable to the specific user who is exploring the visualisation in front of them.
- Abstract(参考訳): デジタルニュース、ソーシャルメディア、その他のテキストソースの量の指数的増加は、人間が世界の出来事について急速に進化する物語に追随することを困難にしている。
トピックやテーマが時間とともに進化するにつれて、テキスト(ニュース記事など)間の関係を明らかにすることで、人々がそのような言論を理解するのを助けるために、様々な可視化技術が紹介されている。
このような視覚化の可視性は、人々がそのような視覚ネットワーク構造における関係を容易に解釈できるという仮定に基づいている。
この仮定をテストするために、有向グラフ構造に基づく時間依存テキスト可視化の抽象モデルを定義することから始める。
このモデルから、テキストが時間的変化にまたがってリンクできる可能性の集合をキャプチャするモチーフを蒸留する。
我々はまた、現代のLLMの力を利用して、パターンごとに適合する架空の、しかし構造化された時間依存のテキストセットを作成する、制御された合成テキスト生成手法も開発している。
そこで我々は,参加者が与えられた合成記事の集合を最もよく表すパターンを識別するためのクリーンなユーザ学習環境(n=30)を構築した。
ユーザが事前に定義されたモチーフを識別し、復元することは、難しい作業であることがわかった。
予測された解釈から逸脱した場合、定性的なデータを解析して、予期しないほど多様なユーザ論理をマッピングする。
より深い分析では、いくつかのケースでは研究制御を損なう合成データセットとLLMの形成に固有の予期せぬ複雑さも指摘されている。
さらに,本研究における個人意思決定の分析は,テキスト・ディスコースの視覚化が一律に適合するアプローチを欠く必要のある未来を示唆するものであり,その代わりに,その前で視覚化を探求している特定のユーザに対して適応性を持たなければならない。
関連論文リスト
- All-in-One Conditioning for Text-to-Image Synthesis [45.22434803596108]
シーングラフ構造の枠組みの中で,テキストと画像の合成を基盤とする新しい手法を提案する。
推論中にソフトな視覚誘導を生成するゼロショットシーングラフベースの条件付け機構を導入する。
これにより、軽量でコヒーレントで多様な画像合成をサポートしながら、テキストイメージのアライメントを維持することができる。
論文 参考訳(メタデータ) (2026-02-09T20:16:19Z) - Priors in Time: Missing Inductive Biases for Language Model Interpretability [58.07412640266836]
スパースオートエンコーダは、時間とともに概念の独立を前提としており、定常性を暗示している。
本稿では,時間的帰納バイアスを持つ新たな解釈可能性目標である時間的特徴分析を導入し,その表現を2つの部分に分解する。
私たちの結果は、堅牢な解釈可能性ツールの設計において、データにマッチする帰納的バイアスの必要性を浮き彫りにしています。
論文 参考訳(メタデータ) (2025-11-03T18:43:48Z) - Explain Before You Answer: A Survey on Compositional Visual Reasoning [74.27548620675748]
構成的視覚推論は、マルチモーダルAIにおける重要な研究フロンティアとして登場した。
本調査は,トップ会場(CVPR,ICCV,NeurIPS,ICML,ACLなど)から260以上の論文を体系的にレビューする。
次に60以上のベンチマークとそれに対応するメトリクスを、基底精度、連鎖忠実性、高分解能知覚などの次元に沿って探索する。
論文 参考訳(メタデータ) (2025-08-24T11:01:51Z) - Emergence of Text Readability in Vision Language Models [69.10470691283281]
VLM(Vision-Language Models)のトレーニング中に画像内のテキストコンテンツを認識する能力がどのように現れるかを検討する。
画像中のテキスト情報を読み取る能力は、かなりの訓練を繰り返した後、突然現れる。
この遅延は、コントラスト学習が最初に一般的な意味理解を優先し、後にテキスト固有の記号処理が発達する傾向を反映している可能性がある。
論文 参考訳(メタデータ) (2025-06-24T07:35:32Z) - Towards Explainable Temporal Reasoning in Large Language Models: A Structure-Aware Generative Framework [18.770512964705176]
本稿では,多種多様な時間的粒度を網羅したベンチマークを導入し,説明可能な時間的推論における大規模言語モデルの能力を体系的に評価する。
提案するGETERは,グラフ構造を記述可能なテンポラル推論のためのテキストと統合した新しい構造認識型生成フレームワークである。
GETERは最先端の性能を実現し、その効果と強力な一般化能力を示す。
論文 参考訳(メタデータ) (2025-05-21T08:20:35Z) - Text Speaks Louder than Vision: ASCII Art Reveals Textual Biases in Vision-Language Models [93.46875303598577]
視覚言語モデル(VLM)は、マルチモーダル情報処理において急速に進歩しているが、競合する信号の整合性は未解明のままである。
この研究は、VLMがASCIIアートをどう処理するかを考察する。
論文 参考訳(メタデータ) (2025-04-02T10:47:07Z) - Unifying Text Semantics and Graph Structures for Temporal Text-attributed Graphs with Large Language Models [25.780463407652295]
時間グラフニューラルネットワーク(TGNN)は時間グラフモデリングにおいて顕著な性能を示した。
TTAGモデリングのための既存のTGNNをシームレスに拡張するフレキシブルなフレームワークである textbfCROSS を提案する。
論文 参考訳(メタデータ) (2025-03-18T16:50:10Z) - VISTA: A Visual and Textual Attention Dataset for Interpreting Multimodal Models [2.0718016474717196]
統合ビジョンと言語モデル(VLM)は、機械学習研究コミュニティ内のブラックボックスと見なされることが多い。
本稿では、画像領域と対応するテキストセグメント間の特定の関連をマッピングする画像テキスト整列人間の視覚的注意データセットを提案する。
次に、VLモデルによって生成された内部のヒートマップとこのデータセットを比較し、モデルの決定プロセスを分析し、よりよく理解できるようにします。
論文 参考訳(メタデータ) (2024-10-06T20:11:53Z) - Analysis of Plan-based Retrieval for Grounded Text Generation [78.89478272104739]
幻覚は、言語モデルがそのパラメトリック知識の外で生成タスクが与えられるときに起こる。
この制限に対処するための一般的な戦略は、言語モデルに検索メカニズムを注入することである。
我々は,幻覚の頻度をさらに減少させるために,探索のガイドとして計画をどのように利用できるかを分析する。
論文 参考訳(メタデータ) (2024-08-20T02:19:35Z) - Transcending the Attention Paradigm: Representation Learning from
Geospatial Social Media Data [1.8311821879979955]
本研究では,分散パターンの源泉としてソーシャルメディアデータを調べることで,パフォーマンスベンチマークのパラダイムに挑戦する。
これらの抽象的関係を適切に表現するために、この研究では、経験的ソーシャルメディアコーパスを要素成分に分解し、人口密度の場所をまたいだ20億以上のツイートを分析した。
論文 参考訳(メタデータ) (2023-10-09T03:27:05Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。