論文の概要: ChartCheck: An Evidence-Based Fact-Checking Dataset over Real-World
Chart Images
- arxiv url: http://arxiv.org/abs/2311.07453v1
- Date: Mon, 13 Nov 2023 16:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 13:33:04.069708
- Title: ChartCheck: An Evidence-Based Fact-Checking Dataset over Real-World
Chart Images
- Title(参考訳): ChartCheck: 実世界のチャート画像上のエビデンスベースのFact-Checkingデータセット
- Authors: Mubashara Akhtar, Nikesh Subedi, Vivek Gupta, Sahar Tahmasebi, Oana
Cocarascu, Elena Simperl
- Abstract要約: ChartCheckは1.7kの現実世界のチャートと10.5kの人文による主張と説明を備えた最初の大規模データセットである。
我々は,最先端モデルのデータセットを評価し,精密な設定で73.9の精度を実現する。
- 参考スコア(独自算出の注目度): 11.172722085164281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data visualizations are common in the real-world. We often use them in data
sources such as scientific documents, news articles, textbooks, and social
media to summarize key information in a visual form. Charts can also mislead
its audience by communicating false information or biasing them towards a
specific agenda. Verifying claims against charts is not a straightforward
process. It requires analyzing both the text and visual components of the
chart, considering characteristics such as colors, positions, and orientations.
Moreover, to determine if a claim is supported by the chart content often
requires different types of reasoning. To address this challenge, we introduce
ChartCheck, a novel dataset for fact-checking against chart images. ChartCheck
is the first large-scale dataset with 1.7k real-world charts and 10.5k
human-written claims and explanations. We evaluated the dataset on
state-of-the-art models and achieved an accuracy of 73.9 in the finetuned
setting. Additionally, we identified chart characteristics and reasoning types
that challenge the models.
- Abstract(参考訳): データ可視化は現実世界で一般的です。
科学論文、ニュース記事、教科書、ソーシャルメディアなどのデータソースで、重要な情報を視覚的に要約するためによく使用します。
チャートは、誤った情報を伝えるか、特定の議題に偏りを付けることで、聴衆を誤解させることもできる。
チャートに対するクレームの検証は簡単なプロセスではありません。
色、位置、向きなどの特性を考慮して、チャートのテキストと視覚の両方を分析する必要がある。
さらに、クレームがチャートコンテンツでサポートされているかどうかを決定するには、しばしば異なるタイプの推論が必要である。
この課題に対処するために、グラフ画像に対するファクトチェックのための新しいデータセットであるChartCheckを紹介する。
ChartCheckは1.7kの現実世界のチャートと10.5kの人文による主張と説明を備えた最初の大規模データセットである。
我々は,最先端モデルのデータセットを評価し,精密な設定で73.9の精度を達成した。
さらに,モデルに挑戦するグラフの特徴と推論型を同定した。
関連論文リスト
- ChartGemma: Visual Instruction-tuning for Chart Reasoning in the Wild [28.643565008567172]
本稿では,PaliGemma上で開発された新しいチャート理解と推論モデルであるChartGemmaを紹介する。
基礎となるデータテーブルに頼るのではなく、ChartGemmaは、チャートイメージから直接生成されたインストラクションチューニングデータに基づいて訓練される。
我々の単純なアプローチは、チャートの要約、質問応答、ファクトチェックにまたがる5ドルのベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-07-04T22:16:40Z) - ChartReformer: Natural Language-Driven Chart Image Editing [0.1712670816823812]
提案するChartReformerは自然言語駆動のチャート画像編集ソリューションで,入力画像から直接,所定の命令プロンプトでチャートを編集する。
ChartReformerを一般化するために、様々な種類のチャート編集、スタイル、レイアウト、フォーマット、データ中心の編集を定義し、標準化する。
論文 参考訳(メタデータ) (2024-03-01T00:59:50Z) - ChartAssisstant: A Universal Chart Multimodal Language Model via
Chart-to-Table Pre-training and Multitask Instruction Tuning [54.89249749894061]
ChartAssistantは、ユニバーサルチャートの理解と推論のためのビジョン言語モデルである。
2段階のトレーニングプロセスを経て、チャートとテキストの調整のために、チャートからテーブルへのパースを事前トレーニングする。
実験により, 最先端UniChart法とChartllama法に比較して, 顕著な性能向上が得られた。
論文 参考訳(メタデータ) (2024-01-04T17:51:48Z) - Do LVLMs Understand Charts? Analyzing and Correcting Factual Errors in Chart Captioning [90.13978453378768]
生成したチャートキャプションに事実誤りを包括的に分類する。
大規模な人間のアノテーションの取り組みは、様々なチャートキャプションモデルによって作られたキャプションのエラーパターンと頻度に関する洞察を提供する。
分析の結果,GPT-4Vを含む最先端モデルでさえ,事実不正確なキャプションを頻繁に生成していることが判明した。
論文 参考訳(メタデータ) (2023-12-15T19:16:21Z) - StructChart: Perception, Structuring, Reasoning for Visual Chart
Understanding [58.38480335579541]
現在のチャート関連タスクは、視覚チャートから情報を抽出することを参照するチャート認識か、抽出されたデータから推論を行うかに焦点を当てている。
本稿では,共同認識と推論タスクのための統一的でラベル効率のよい学習パラダイムを確立することを目的とする。
各種のチャート関連タスクで実験を行い、統合されたチャート認識推論パラダイムの有効性と有望な可能性を実証した。
論文 参考訳(メタデータ) (2023-09-20T12:51:13Z) - Enhanced Chart Understanding in Vision and Language Task via Cross-modal
Pre-training on Plot Table Pairs [71.55796212450055]
本稿では、プロットテーブルペア上でのクロスモーダル事前学習を通じて、チャート画像からテーブル情報を解釈する方法を学ぶV+LモデルであるChartT5を紹介する。
具体的には,MHP(Masked Header Prediction)とMVP(Masked Value Prediction)の2つの新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2023-05-29T22:29:03Z) - UniChart: A Universal Vision-language Pretrained Model for Chart
Comprehension and Reasoning [29.947053208614246]
We present UniChart, a pretrained model for chart comprehension and reasoning。
UniChartは、チャートの関連するテキスト、データ、および視覚要素をエンコードし、その後、チャートグラウンドのテキストデコーダを使用して、自然言語で期待される出力を生成する。
i) チャートから視覚要素(バーや線など)とデータを抽出する低レベルタスク、(ii) チャート理解と推論のスキルを得るための高レベルタスクなどである。
論文 参考訳(メタデータ) (2023-05-24T06:11:17Z) - ChartReader: A Unified Framework for Chart Derendering and Comprehension
without Heuristic Rules [89.75395046894809]
ChartReaderは、チャートのデレンダリングと理解タスクをシームレスに統合する統合フレームワークです。
提案手法には,トランスフォーマーに基づくチャートコンポーネント検出モジュールと,チャートからXまでのタスクに対する事前学習型視覚言語モデルが組み込まれている。
提案するフレームワークは,チャート解析に係わる作業を大幅に削減し,ユニバーサルチャート理解モデルへの一歩を踏み出すことができる。
論文 参考訳(メタデータ) (2023-04-05T00:25:27Z) - Chart-to-Text: A Large-Scale Benchmark for Chart Summarization [9.647079534077472]
2つのデータセットと44,096のチャートを持つ大規模ベンチマークであるChart-to-textを提示する。
データセット構築プロセスを説明し、データセットを解析する。
論文 参考訳(メタデータ) (2022-03-12T17:01:38Z) - Table2Charts: Recommending Charts by Learning Shared Table
Representations [61.68711232246847]
Table2Chartsは、(テーブル、チャート)ペアの大きなコーパスから共通のパターンを学ぶ。
165kのテーブルと266kのチャートを持つ大きなスプレッドシートコーパスでは、テーブルフィールドの共有表現を学習できることが示される。
論文 参考訳(メタデータ) (2020-08-24T15:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。