論文の概要: Are LLMs ready to help non-expert users to make charts of official statistics data?
- arxiv url: http://arxiv.org/abs/2510.01197v1
- Date: Wed, 03 Sep 2025 08:11:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 05:29:07.832688
- Title: Are LLMs ready to help non-expert users to make charts of official statistics data?
- Title(参考訳): LLMは、専門家でないユーザーが公式統計データのチャートを作るのに役立つのか?
- Authors: Gadir Suleymanli, Alexander Rogiers, Lucas Lageweg, Jefrey Lijffijt,
- Abstract要約: 正しいデータの識別と、視覚的な情報を提供するためのグラフの完全な自動作成を容易にする、現在の生成AIモデルがありますか?
本稿では,ユーザクエリに応答して複雑なデータからグラフを生成する,最近の大規模言語モデルの機能について,構造化された評価を行う。
結果は、正しいデータの配置と処理が最も重要な課題であることを示している。
- 参考スコア(独自算出の注目度): 39.88557897908524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this time when biased information, deep fakes, and propaganda proliferate, the accessibility of reliable data sources is more important than ever. National statistical institutes provide curated data that contain quantitative information on a wide range of topics. However, that information is typically spread across many tables and the plain numbers may be arduous to process. Hence, this open data may be practically inaccessible. We ask the question "Are current Generative AI models capable of facilitating the identification of the right data and the fully-automatic creation of charts to provide information in visual form, corresponding to user queries?". We present a structured evaluation of recent large language models' (LLMs) capabilities to generate charts from complex data in response to user queries. Working with diverse public data from Statistics Netherlands, we assessed multiple LLMs on their ability to identify relevant data tables, perform necessary manipulations, and generate appropriate visualizations autonomously. We propose a new evaluation framework spanning three dimensions: data retrieval & pre-processing, code quality, and visual representation. Results indicate that locating and processing the correct data represents the most significant challenge. Additionally, LLMs rarely implement visualization best practices without explicit guidance. When supplemented with information about effective chart design, models showed marked improvement in representation scores. Furthermore, an agentic approach with iterative self-evaluation led to excellent performance across all evaluation dimensions. These findings suggest that LLMs' effectiveness for automated chart generation can be enhanced through appropriate scaffolding and feedback mechanisms, and that systems can already reach the necessary accuracy across the three evaluation dimensions.
- Abstract(参考訳): バイアスのある情報、ディープフェイク、プロパガンダが急増する今、信頼できるデータソースのアクセシビリティはこれまで以上に重要である。
国家統計機関は、幅広いトピックに関する定量的情報を含むキュレートされたデータを提供している。
しかし、その情報は一般に多くのテーブルに分散しており、平易な数字は処理が困難である可能性がある。
したがって、このオープンデータは事実上アクセスできないかもしれない。
ユーザクエリに対応する視覚的な情報を提供するために、正しいデータの識別と完全なオートマチックなチャート作成を容易にする、現在の生成AIモデルがありますか?
本稿では,ユーザクエリに応答して複雑なデータからチャートを生成するため,最近の大規模言語モデル(LLM)の機能について構造化した評価を行う。
オランダ統計局(Statistics Netherlands)のさまざまな公開データを用いて、関連するデータテーブルを特定し、必要な操作を行い、適切な視覚化を自律的に生成する能力について、複数のLCMを評価した。
本稿では,データ検索と事前処理,コード品質,視覚表現の3つの側面にまたがる新しい評価フレームワークを提案する。
結果は、正しいデータの配置と処理が最も重要な課題であることを示している。
加えて、LCMは明示的なガイダンスなしで視覚化のベストプラクティスを実装することは滅多にない。
効果的なチャート設計に関する情報を補足すると、モデルでは表現スコアが顕著に向上した。
さらに、反復的自己評価を伴うエージェント的アプローチは、すべての評価次元にわたって優れたパフォーマンスをもたらした。
これらの結果から,LLMが適切な足場やフィードバック機構によって自動チャート生成に有効である可能性が示唆され,システムは3つの評価次元にまたがって既に必要な精度に達することが示唆された。
関連論文リスト
- Automated Visualization Makeovers with LLMs [0.716879432974126]
ビジュアライゼーションのフェイルオーバーは、コミュニティがフィードバックを交換してチャートやデータの視覚化を改善する活動である。
マルチモーダル大言語モデル(LLM)はこのタスクをエミュレートできるだろうか?
当社のシステムは,ユーザガイドラインとデータ視覚化プラクティスの潜伏した知識を併用した,事前学習モデルの迅速なエンジニアリングを中心に構築されている。
論文 参考訳(メタデータ) (2025-07-21T11:51:20Z) - Protecting multimodal large language models against misleading visualizations [94.71976205962527]
この結果から,誤解を招く可視化に対する質問応答(QA)の精度が,ランダムなベースラインのレベルに平均で低下していることが示唆された。
本研究では,非ミスリーディングの精度を損なうことなく,誤解を招くビジュアライゼーションにおけるQA性能を改善するための最初の推論時間手法を提案する。
テーブルベースのQAと視覚化を再描画する2つの方法が有効であり、最大19.6ポイントの改善が期待できる。
論文 参考訳(メタデータ) (2025-02-27T20:22:34Z) - Better Think with Tables: Tabular Structures Enhance LLM Comprehension for Data-Analytics Requests [33.471112091886894]
大規模言語モデル(LLM)は、情報検索やデータ操作に関連するデータ分析要求に悩まされることが多い。
我々は、データ分析要求のために表構造をLCMに注入するThinking with Tablesを紹介した。
テーブルを提供すると平均的なパフォーマンスが40.29パーセント向上し、操作性やトークン効率が向上することを示す。
論文 参考訳(メタデータ) (2024-12-22T23:31:03Z) - Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - PUB: Plot Understanding Benchmark and Dataset for Evaluating Large Language Models on Synthetic Visual Data Interpretation [2.1184929769291294]
本稿では,データ視覚化における大規模言語モデルの習熟度を評価するために設計された,新しい合成データセットを提案する。
我々のデータセットは、制御されたパラメータを使って生成され、潜在的な現実世界シナリオの包括的カバレッジが保証されます。
我々は、画像中の視覚データに関連する質問を多モーダルテキストプロンプトを用いて、いくつかの最先端モデルをベンチマークする。
論文 参考訳(メタデータ) (2024-09-04T11:19:17Z) - Can LLMs Generate Visualizations with Dataless Prompts? [17.280610067626135]
本研究では,このようなクエリに応答して,大規模言語モデルが正確なデータと関連する視覚化を提供する能力について検討する。
具体的には、GPT-3とGPT-4がデータレスプロンプトでビジュアライゼーションを生成する能力について検討する。
論文 参考訳(メタデータ) (2024-06-22T22:59:09Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - TACT: Advancing Complex Aggregative Reasoning with Information Extraction Tools [51.576974932743596]
大規模言語モデル(LLM)は、テキスト間の情報の集約を必要とするクエリではよく機能しないことが多い。
TACTには、1つ以上のテキストに散らばる縫合情報を要求する難しい命令が含まれている。
既存のテキストと関連するテーブルのデータセットを活用することで、このデータセットを構築します。
現代のLLMはいずれも,このデータセットでは性能が悪く,精度が38%以下であることが実証された。
論文 参考訳(メタデータ) (2024-06-05T20:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。