論文の概要: Text-to-TrajVis: Enabling Trajectory Data Visualizations from Natural Language Questions
- arxiv url: http://arxiv.org/abs/2504.16358v1
- Date: Wed, 23 Apr 2025 02:15:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.975588
- Title: Text-to-TrajVis: Enabling Trajectory Data Visualizations from Natural Language Questions
- Title(参考訳): Text-to-TrajVis: 自然言語による軌跡データの可視化
- Authors: Tian Bai, Huiyan Ying, Kailong Suo, Junqiu Wei, Tao Fan, Yuanfeng Song,
- Abstract要約: 本稿では,自然言語質問をトラジェクティブなデータ視覚化に変換することを目的としたText-to-TrajVisタスクを提案する。
これは新しいタスクなので、現在、コミュニティで利用可能な関連するデータセットはありません。
- 参考スコア(独自算出の注目度): 7.042074641736026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the Text-to-TrajVis task, which aims to transform natural language questions into trajectory data visualizations, facilitating the development of natural language interfaces for trajectory visualization systems. As this is a novel task, there is currently no relevant dataset available in the community. To address this gap, we first devised a new visualization language called Trajectory Visualization Language (TVL) to facilitate querying trajectory data and generating visualizations. Building on this foundation, we further proposed a dataset construction method that integrates Large Language Models (LLMs) with human efforts to create high-quality data. Specifically, we first generate TVLs using a comprehensive and systematic process, and then label each TVL with corresponding natural language questions using LLMs. This process results in the creation of the first large-scale Text-to-TrajVis dataset, named TrajVL, which contains 18,140 (question, TVL) pairs. Based on this dataset, we systematically evaluated the performance of multiple LLMs (GPT, Qwen, Llama, etc.) on this task. The experimental results demonstrate that this task is both feasible and highly challenging and merits further exploration within the research community.
- Abstract(参考訳): 本稿では,トラジェクティブ・ビジュアライゼーション・システムのための自然言語インタフェースの開発を容易にするために,自然言語質問をトラジェクティブ・データ・ビジュアライゼーションに変換することを目的としたText-to-TrajVisタスクを提案する。
これは新しいタスクなので、現在、コミュニティで利用可能な関連するデータセットはありません。
このギャップに対処するため,我々はトラジェクティブ・ビジュアライゼーション・ランゲージ (TVL) と呼ばれる新しいビジュアライゼーション言語を考案した。
さらに,この基盤を基盤として,Large Language Models (LLM) と人間による高品質なデータ作成の取り組みを統合したデータセット構築手法を提案する。
具体的には、まず総合的かつ体系的なプロセスを用いてTVLを生成し、次に各TVLにLLMを用いて対応する自然言語質問をラベル付けする。
このプロセスにより、TrajVLと呼ばれる18,140(クエクション、TVL)ペアを含む最初の大規模なText-to-TrajVisデータセットが作成される。
このデータセットに基づいて,本課題における複数のLLM(GPT,Qwen,Llamaなど)の性能を体系的に評価した。
実験結果から, この課題は実現可能であり, 極めて困難であり, 研究コミュニティ内でのさらなる探索に有効であることが示唆された。
関連論文リスト
- Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Automated Data Visualization from Natural Language via Large Language Models: An Exploratory Study [41.84915013818794]
The Natural Language to Visualization (NL2Vis) taskは、自然言語記述を接地テーブルの視覚表現に変換することを目的としている。
多くのディープラーニングベースのアプローチがNL2Vis向けに開発されているが、目に見えないデータベースや複数のテーブルにまたがるデータの視覚化には課題が続いている。
本稿では,Large Language Models (LLMs) の顕著な生成能力からインスピレーションを得て,その可能性を評価するための実証的研究を行う。
論文 参考訳(メタデータ) (2024-04-26T03:25:35Z) - Text-Tuple-Table: Towards Information Integration in Text-to-Table Generation via Global Tuple Extraction [36.915250638481986]
リアルタイムのコメンタリーテキストに基づいたコンペの要約表を生成するためのベンチマークデータセットであるLiveSumを紹介する。
我々は,このタスクにおける最先端の大規模言語モデルの性能を,微調整とゼロショットの両方で評価する。
さらに、パフォーマンスを改善するために、$T3$(Text-Tuple-Table)と呼ばれる新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:31:28Z) - UltraLink: An Open-Source Knowledge-Enhanced Multilingual Supervised
Fine-tuning Dataset [69.33424532827608]
オープンソースの大規模言語モデル(LLM)は、様々な分野において大きな強みを持っている。
本研究では,オープンソースの多言語教師付き微調整データセットを構築する。
結果として得られたUltraLinkデータセットは、5つの言語にわたる約100万のサンプルで構成されている。
論文 参考訳(メタデータ) (2024-02-07T05:05:53Z) - Natural Language Interfaces for Tabular Data Querying and Visualization: A Survey [30.836162812277085]
大規模言語モデル(LLM)の台頭はこの分野をさらに進歩させ、自然言語処理技術のための新たな道を開いた。
本稿では,これらのインターフェースの基礎となる基本概念と技術を紹介し,セマンティック解析に特に重点を置いている。
この中には、LSMの影響を深く掘り下げ、その強み、制限、将来の改善の可能性を強調している。
論文 参考訳(メタデータ) (2023-10-27T05:01:20Z) - CulturaX: A Cleaned, Enormous, and Multilingual Dataset for Large
Language Models in 167 Languages [86.90220551111096]
大規模言語モデル(LLM)のトレーニングデータセットは、完全には公開されないことが多い。
我々は167言語で6.3兆のトークンを持つ相当な多言語データセットであるCulturaXを紹介する。
論文 参考訳(メタデータ) (2023-09-17T23:49:10Z) - Automatic Data Visualization Generation from Chinese Natural Language
Questions [23.777512332679194]
本論文では,中国語のテキスト・ツー・ヴィジュアライズ・データセットを提案し,この問題に対処するための最初の試みを実証する。
我々のモデルは,多言語BERTをエンコーダとして統合し,言語間能力を高め,語表現学習に$n$-gramの情報を注入する。
論文 参考訳(メタデータ) (2023-09-14T12:16:21Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Using Large Language Models to Generate Engaging Captions for Data
Visualizations [51.98253121636079]
大規模言語モデル(LLM)は、高度なディープラーニング技術を用いて人間のような散文を生成する。
主な課題は、プロンプトエンジニアリングと呼ばれるLLMの最も効果的なプロンプトを設計することである。
我々は,LLM GPT-3を用いた最初の実験について報告し,いくつかの有望な結果を得た。
論文 参考訳(メタデータ) (2022-12-27T23:56:57Z) - Quda: Natural Language Queries for Visual Data Analytics [33.983060903399554]
我々は、V-NLIが自由形式の自然言語から解析タスクを認識するのを支援するために、Qudaと呼ばれる新しいデータセットを提案する。
私たちのデータセットには14,035ドルの多様なユーザクエリが含まれており、それぞれに1つまたは複数の分析タスクがアノテートされている。
この研究は、解析的タスクを認識するための大規模コーパスを構築する最初の試みである。
論文 参考訳(メタデータ) (2020-05-07T05:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。