論文の概要: ChartComplete: A Taxonomy-based Inclusive Chart Dataset
- arxiv url: http://arxiv.org/abs/2601.10462v3
- Date: Mon, 19 Jan 2026 10:05:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 18:45:13.548829
- Title: ChartComplete: A Taxonomy-based Inclusive Chart Dataset
- Title(参考訳): ChartComplete: 分類に基づく包括的チャートデータセット
- Authors: Ahmad Mustapha, Charbel Toumieh, Mariette Awad,
- Abstract要約: マルチモーダル大言語モデル(MLLM)は、チャートの理解において効率的で正確であることが証明されている。
MLLMの性能を正確に測定するために、研究コミュニティはベンチマークとして機能する複数のデータセットを開発した。
私たちは、ChartCompleteデータセットをコミュニティに提供します。
- 参考スコア(独自算出の注目度): 1.9728521995447947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With advancements in deep learning (DL) and computer vision techniques, the field of chart understanding is evolving rapidly. In particular, multimodal large language models (MLLMs) are proving to be efficient and accurate in understanding charts. To accurately measure the performance of MLLMs, the research community has developed multiple datasets to serve as benchmarks. By examining these datasets, we found that they are all limited to a small set of chart types. To bridge this gap, we propose the ChartComplete dataset. The dataset is based on a chart taxonomy borrowed from the visualization community, and it covers thirty different chart types. The dataset is a collection of classified chart images and does not include a learning signal. We present the ChartComplete dataset as is to the community to build upon it.
- Abstract(参考訳): ディープラーニング(DL)とコンピュータビジョン技術の進歩により、チャート理解の分野は急速に発展しつつある。
特に、マルチモーダル大言語モデル(MLLM)は、チャートの理解において効率的で正確であることが証明されている。
MLLMの性能を正確に測定するために、研究コミュニティはベンチマークとして機能する複数のデータセットを開発した。
これらのデータセットを調べることで、これらはすべて小さなチャートタイプに限られていることがわかりました。
このギャップを埋めるため、ChartCompleteデータセットを提案する。
データセットは、視覚化コミュニティから借用されたチャート分類に基づいており、30種類のチャートをカバーしている。
データセットは分類されたチャート画像の集合であり、学習信号は含まない。
私たちは、ChartCompleteデータセットをコミュニティに提供します。
関連論文リスト
- In-Depth and In-Breadth: Pre-training Multimodal Language Models Customized for Comprehensive Chart Understanding [113.17601814293722]
様々なチャートタイプにまたがる詳細なチャート理解に最適化されたLVLMであるChartScopeを紹介する。
そこで本研究では,多種多様なグラフ型のペアデータを生成する,効率的なデータ生成パイプラインを提案する。
また、異なるレベルでの質問回答だけでなく、基礎となるデータ理解を評価するための新しいベンチマークであるChartDQAも確立しました。
論文 参考訳(メタデータ) (2025-07-18T18:15:09Z) - Text2Chart31: Instruction Tuning for Chart Generation with Automatic Feedback [37.275533538711436]
階層的なパイプラインとグラフ生成のための新しいデータセットを提案する。
私たちのデータセットであるText2Chart31には、Matplotlibライブラリを参照する31のユニークなプロットタイプが含まれています。
本稿では,人間からのフィードバックを必要とせず,グラフ生成タスクのための強化学習に基づく指導指導手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T07:25:56Z) - ChartX & ChartVLM: A Versatile Benchmark and Foundation Model for Complicated Chart Reasoning [55.22996841790139]
我々は、チャート領域における既製のマルチモーダル言語モデル(MLLM)の能力をベンチマークする。
ChartXは18種類のチャートタイプ,7つのチャートタスク,22のディシプリナトピック,高品質なチャートデータを含むマルチモーダルな評価セットである。
我々は、解釈可能なパターンに強く依存するマルチモーダルタスクに対する新しい視点を提供するため、ChartVLMを開発した。
論文 参考訳(メタデータ) (2024-02-19T14:48:23Z) - ChartAssisstant: A Universal Chart Multimodal Language Model via
Chart-to-Table Pre-training and Multitask Instruction Tuning [54.89249749894061]
ChartAssistantは、ユニバーサルチャートの理解と推論のためのビジョン言語モデルである。
2段階のトレーニングプロセスを経て、チャートとテキストの調整のために、チャートからテーブルへのパースを事前トレーニングする。
実験により, 最先端UniChart法とChartllama法に比較して, 顕著な性能向上が得られた。
論文 参考訳(メタデータ) (2024-01-04T17:51:48Z) - ChartLlama: A Multimodal LLM for Chart Understanding and Generation [70.1393163657813]
GPT-4を利用した高品質な命令チューニングデータセットを作成する。
次に、生成したデータセットを使ってトレーニングしたマルチモーダルな大規模言語モデルであるChartLlamaを紹介します。
論文 参考訳(メタデータ) (2023-11-27T15:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。