論文の概要: Do Large Language Models Understand Data Visualization Rules?
- arxiv url: http://arxiv.org/abs/2602.20137v1
- Date: Mon, 23 Feb 2026 18:47:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.960011
- Title: Do Large Language Models Understand Data Visualization Rules?
- Title(参考訳): 大規模言語モデルはデータの可視化ルールを理解するか?
- Authors: Martin Sinnona, Valentin Bonas, Emmanuel Iarussi, Viviana Siless,
- Abstract要約: 大規模言語モデル(LLM)は、チャートを生成するか、誤解を招く数字をフラグにすることができるが、それらが直接視覚化ルールを推論し強制できるかどうかは不明だ。
我々は、解答集合プログラミング(ASP)から導かれるハード・ビジュアライゼーション基底真理を用いた可視化ルールに対するLCMの最初の体系的評価を提案する。
その結果,フロンティアモデルは高い密着性(Gemma 3 4B / 27B:100%, GPT-oss 20B: 98%)を示し,共通違反を確実に検出する(F1から0.82まで)。
- 参考スコア(独自算出の注目度): 2.3332469289621787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data visualization rules-derived from decades of research in design and perception-ensure trustworthy chart communication. While prior work has shown that large language models (LLMs) can generate charts or flag misleading figures, it remains unclear whether they can reason about and enforce visualization rules directly. Constraint-based systems such as Draco encode these rules as logical constraints for precise automated checks, but maintaining symbolic encodings requires expert effort, motivating the use of LLMs as flexible rule validators. In this paper, we present the first systematic evaluation of LLMs against visualization rules using hard-verification ground truth derived from Answer Set Programming (ASP). We translated a subset of Draco's constraints into natural-language statements and generated a controlled dataset of 2,000 Vega-Lite specifications annotated with explicit rule violations. LLMs were evaluated on both accuracy in detecting violations and prompt adherence, which measures whether outputs follow the required structured format. Results show that frontier models achieve high adherence (Gemma 3 4B / 27B: 100%, GPT-oss 20B: 98%) and reliably detect common violations (F1 up to 0.82),yet performance drops for subtler perceptual rules (F1 < 0.15 for some categories) and for outputs generated from technical ASP formulations.Translating constraints into natural language improved performance by up to 150% for smaller models. These findings demonstrate the potential of LLMs as flexible, language-driven validators while highlighting their current limitations compared to symbolic solvers.
- Abstract(参考訳): データビジュアライゼーションのルールは、デザインと認識の信頼できるチャートコミュニケーションにおける数十年の研究に由来する。
以前の研究では、大きな言語モデル(LLM)がチャートを生成できるか、誤解を招く数字をフラグできることを示したが、それらが直接視覚化ルールを推論し強制できるかどうかは不明だ。
Dracoのような制約ベースのシステムは、これらのルールを正確な自動チェックの論理的制約としてエンコードするが、シンボリックエンコーディングを維持するには専門家の努力が必要である。
本稿では、解答集合プログラミング(ASP.NET)から派生したハード・ビジュアライゼーション基底真理を用いた可視化ルールに対するLCMの最初の体系的評価について述べる。
我々はDracoの制約のサブセットを自然言語文に翻訳し、明示的なルール違反を付加した2000のVega-Lite仕様の制御データセットを生成した。
出力が要求される構造化フォーマットに従うかどうかを測定するため, 違反検出の精度と適応性の両面からLCMを評価した。
その結果、フロンティアモデルは高い密着性(Gemma 3 4B / 27B: 100%, GPT-oss 20B: 98%)を実現し、共通の違反(F1から0.82まで)を確実に検出し、より微妙な知覚規則(F1 < 0.15)と技術的ASPの定式化から生成された出力に対して性能低下を防止した。
これらの結果から,LLMの言語駆動型バリデータとしての可能性を示すとともに,シンボリック・ソルバと比較して,現在の限界を強調した。
関連論文リスト
- Do Large Language Models Understand Data Visualization Principles? [2.3332469289621787]
大規模言語モデル (LLM) と視覚言語モデル (VLM) が直接視覚化の原則を推論し、強制できるかどうかは不明だ。
我々は、チェックタスクと修正タスクの両方を評価し、モデルの原則違反の検出方法と、欠陥のあるチャート仕様の正しさを評価する。
我々の研究は、可視化設計の柔軟なバリデータやエディターとしての大規模(視覚)言語モデルの約束と、視覚知覚のより微妙な側面における象徴的解法との永続的なギャップの両方を強調した。
論文 参考訳(メタデータ) (2026-02-23T17:51:06Z) - Rule2Text: A Framework for Generating and Evaluating Natural Language Explanations of Knowledge Graph Rules [0.998900149624725]
Rule2Textは、大規模言語モデルを利用して、マイニングされた論理ルールの自然言語説明を生成するフレームワークである。
その結果,細調整後の説明品質が著しく向上し,特にドメイン固有のデータセットが向上した。
論文 参考訳(メタデータ) (2025-08-14T16:41:47Z) - Fast Controlled Generation from Language Models with Adaptive Weighted Rejection Sampling [90.86991492288487]
トークンの制約を評価するのは 違法にコストがかかる
LCDは文字列上のグローバル分布を歪め、ローカル情報のみに基づいてトークンをサンプリングすることができる。
我々のアプローチは最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-07T18:30:18Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - Model Generalization on Text Attribute Graphs: Principles with Large Language Models [14.657522068231138]
グラフ学習には大規模言語モデル(LLM)が導入されており、ラベル付きグラフデータが不足しているタスクにゼロショットの一般化の成功を拡大することを目的としている。
本研究では,タスク適応型埋め込みとグラフ情報集約機構を用いて,テキスト分散グラフ(TAG)の推論を行うフレームワークを開発する。
11の実世界のTAGベンチマークによる評価は、LLM-BPが既存のアプローチよりも大幅に優れていることを示している。
論文 参考訳(メタデータ) (2025-02-17T14:31:00Z) - Exploring Iterative Controllable Summarization with Large Language Models [22.80433394369022]
大言語モデル(LLM)は抽象的な要約タスクにおいて顕著な性能を示した。
以上の結果から,LLMは言語属性よりも数値属性に苦しむことが明らかとなった。
制御可能な要約のためのガイド・ツー・説明フレームワーク(GTE)を提案する。
論文 参考訳(メタデータ) (2024-11-19T12:36:02Z) - DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation [57.07295906718989]
制約付き復号法は,事前訓練された大言語(Ms と PLMs)が生成するテキストの意味やスタイルを,推論時に様々なタスクに対して制御することを目的としている。
これらの方法は、しばしば、欲求的かつ明示的にターゲットを選択することによって、もっともらしい連続を導く。
認知二重プロセス理論に着想を得て,新しい復号化フレームワークDECDERを提案する。
論文 参考訳(メタデータ) (2024-03-04T11:49:08Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。