論文の概要: Is this chart lying to me? Automating the detection of misleading visualizations
- arxiv url: http://arxiv.org/abs/2508.21675v1
- Date: Fri, 29 Aug 2025 14:36:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.082617
- Title: Is this chart lying to me? Automating the detection of misleading visualizations
- Title(参考訳): このチャートは私に嘘をついているのか?誤解を招く可視化の検出を自動化する
- Authors: Jonathan Tonglet, Jan Zimny, Tinne Tuytelaars, Iryna Gurevych,
- Abstract要約: 誤解を招くビジュアライゼーションは、ソーシャルメディアやウェブ上での誤報の強力な原動力だ。
Misvizは、12種類のミスリーダーで注釈付けされた2,604の現実世界の視覚化のベンチマークである。
Misviz-synthは、Matplotlibを使って生成され、実世界のデータテーブルに基づいて81,814の可視化データからなる合成データセットである。
- 参考スコア(独自算出の注目度): 74.26574031329689
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Misleading visualizations are a potent driver of misinformation on social media and the web. By violating chart design principles, they distort data and lead readers to draw inaccurate conclusions. Prior work has shown that both humans and multimodal large language models (MLLMs) are frequently deceived by such visualizations. Automatically detecting misleading visualizations and identifying the specific design rules they violate could help protect readers and reduce the spread of misinformation. However, the training and evaluation of AI models has been limited by the absence of large, diverse, and openly available datasets. In this work, we introduce Misviz, a benchmark of 2,604 real-world visualizations annotated with 12 types of misleaders. To support model training, we also release Misviz-synth, a synthetic dataset of 81,814 visualizations generated using Matplotlib and based on real-world data tables. We perform a comprehensive evaluation on both datasets using state-of-the-art MLLMs, rule-based systems, and fine-tuned classifiers. Our results reveal that the task remains highly challenging. We release Misviz, Misviz-synth, and the accompanying code.
- Abstract(参考訳): 誤解を招くビジュアライゼーションは、ソーシャルメディアやウェブ上での誤報の強力な原動力だ。
チャート設計原則に違反して、データを歪め、読者を不正確な結論へと導く。
これまでの研究では、人間とマルチモーダル大言語モデル(MLLM)の両方が、このような視覚化によってしばしば騙されていることが示されている。
誤解を招くビジュアライゼーションを自動的に検出し、それらが違反する特定のデザインルールを特定することで、読者を保護し、誤報の拡散を減らすことができる。
しかし、AIモデルのトレーニングと評価は、大規模で多種多様な公開データセットが欠如していることによって制限されている。
本研究では,12種類のミスリーダーをアノテートした2,604個の実世界の可視化のベンチマークであるMisvizを紹介する。
モデルトレーニングをサポートするために,Mateplotlibを用いて生成した81,814のビジュアライゼーションデータセットであるMisviz-synthもリリースした。
我々は、最先端MLLM、ルールベースシステム、微調整分類器を用いて、両方のデータセットに対して包括的な評価を行う。
結果から,課題は依然として極めて困難であることが判明した。
Misviz、Misviz-synth、それに付随するコードをリリースします。
関連論文リスト
- RefChartQA: Grounding Visual Answer on Chart Images through Instruction Tuning [63.599057862999]
RefChartQAは、Chart Question Answering(ChartQA)とビジュアルグラウンドを統合した、新しいベンチマークである。
実験により,グラウンド化による空間認識を取り入れることで,応答精度が15%以上向上することが実証された。
論文 参考訳(メタデータ) (2025-03-29T15:50:08Z) - Unmasking Deceptive Visuals: Benchmarking Multimodal Large Language Models on Misleading Chart Question Answering [28.54154468156412]
誤解を招くチャートの視覚化は、知覚を歪め、誤った結論につながる可能性がある。
大規模言語モデル(MLLM)の最近の進歩は、強力なチャート理解能力を示している。
本稿では,ミスリーディングチャート質問回答ベンチマーク(Misleading Chart Question Answering (Misleading ChartQA)ベンチマーク)を紹介する。
論文 参考訳(メタデータ) (2025-03-23T18:56:33Z) - Protecting multimodal large language models against misleading visualizations [94.71976205962527]
この結果から,誤解を招く可視化に対する質問応答(QA)の精度が,ランダムなベースラインのレベルに平均で低下していることが示唆された。
本研究では,非ミスリーディングの精度を損なうことなく,誤解を招くビジュアライゼーションにおけるQA性能を改善するための最初の推論時間手法を提案する。
テーブルベースのQAと視覚化を再描画する2つの方法が有効であり、最大19.6ポイントの改善が期待できる。
論文 参考訳(メタデータ) (2025-02-27T20:22:34Z) - CHARTOM: A Visual Theory-of-Mind Benchmark for LLMs on Misleading Charts [26.477627174115806]
CHARTOMはマルチモーダルな大規模言語モデルの能力を評価するために設計されたビジュアル・オブ・ミンド・ベンチマークである。
CHARTOMは、慎重に設計されたチャートと関連する質問で構成されており、言語モデルがチャートの事実を正しく理解するだけでなく(FACTの質問)、チャートが人間の読者に誤解をもたらすかどうかを判断する(MINDの質問)。
我々は,人間のパフォーマンスの校正や,人間ミスリーディングネス指数(Human Misleadingness Index)と呼ばれるMIND基底真理の推定を含むベンチマークの構築について詳述する。
論文 参考訳(メタデータ) (2024-08-26T17:04:23Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。