論文の概要: Do LLMs Work on Charts? Designing Few-Shot Prompts for Chart Question
Answering and Summarization
- arxiv url: http://arxiv.org/abs/2312.10610v1
- Date: Sun, 17 Dec 2023 05:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 15:30:49.581365
- Title: Do LLMs Work on Charts? Designing Few-Shot Prompts for Chart Question
Answering and Summarization
- Title(参考訳): LLMはチャートで機能するのか?
チャート質問応答と要約のための短いショットプロンプトの設計
- Authors: Xuan Long Do, Mohammad Hassanpour, Ahmed Masry, Parsa Kavehzadeh,
Enamul Hoque, Shafiq Joty
- Abstract要約: 大規模言語モデル(LLM)は、目に見えないタスクに対して印象的な一般化能力を示している。
本稿では,チャート関連アプリケーションのための LLM を用いたマルチモーダルな複数ショットプロンプトフレームワーク PromptChart を提案する。
3つの異なるチャート関連情報消費タスクに関する実験により、適切に設計されたプロンプトにより、LLMがベンチマーク上で優れることを示す。
- 参考スコア(独自算出の注目度): 27.913656283822483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A number of tasks have been proposed recently to facilitate easy access to
charts such as chart QA and summarization. The dominant paradigm to solve these
tasks has been to fine-tune a pretrained model on the task data. However, this
approach is not only expensive but also not generalizable to unseen tasks. On
the other hand, large language models (LLMs) have shown impressive
generalization capabilities to unseen tasks with zero- or few-shot prompting.
However, their application to chart-related tasks is not trivial as these tasks
typically involve considering not only the underlying data but also the visual
features in the chart image. We propose PromptChart, a multimodal few-shot
prompting framework with LLMs for chart-related applications. By analyzing the
tasks carefully, we have come up with a set of prompting guidelines for each
task to elicit the best few-shot performance from LLMs. We further propose a
strategy to inject visual information into the prompts. Our experiments on
three different chart-related information consumption tasks show that with
properly designed prompts LLMs can excel on the benchmarks, achieving
state-of-the-art.
- Abstract(参考訳): 近年,チャートQAや要約などのチャートへのアクセスを容易にするために,いくつかのタスクが提案されている。
これらのタスクを解決するための主要なパラダイムは、タスクデータに事前訓練されたモデルを微調整することであった。
しかし、このアプローチは高価であるばかりでなく、見当たらないタスクにも一般化できない。
一方,大規模言語モデル(llm)では,ゼロショットあるいは少数ショットプロンプトによる非認識タスクの一般化が印象的である。
しかし、これらのタスクは一般的に、基礎となるデータだけでなく、チャート画像の視覚的特徴も考慮するので、チャート関連タスクへの適用は簡単ではない。
本稿では,チャート関連アプリケーションのための LLM を用いたマルチモーダルな複数ショットプロンプトフレームワーク PromptChart を提案する。
タスクを慎重に分析することで、LLMから最高の数ショットパフォーマンスを引き出すために、各タスクに対して一連のプロンプトガイドラインを考案した。
さらに,視覚情報をプロンプトに注入する手法を提案する。
3つの異なるチャート関連情報消費タスクに関する実験により、適切に設計されたプロンプトにより、LLMはベンチマークに優れ、最先端の達成を達成できることを示す。
関連論文リスト
- TinyChart: Efficient Chart Understanding with Visual Token Merging and Program-of-Thoughts Learning [83.58521787193293]
本稿では,3Bパラメータのみを用いたチャート理解のための効率的なMLLMであるTinyChartを提案する。
TinyChartは,1)プログラム・オブ・ソート(PoT)学習戦略による数値計算学習の負担軽減,2)ビジョン・トーケン・マージ・モジュールによる高解像度画像のためのビジョン・トランスフォーマーによって生成される長大な視覚特徴系列の削減という,効率的なチャート理解における2つの課題を克服した。
論文 参考訳(メタデータ) (2024-04-25T14:23:24Z) - ChartInstruct: Instruction Tuning for Chart Comprehension and Reasoning [28.204261069650897]
71Kチャートで生成した191K命令からなる新しいチャート固有視覚言語インストラクションフォローデータセットであるChartInstructを紹介した。
4つの下流タスクの実験において、まずモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-03-14T01:40:23Z) - ChartAssisstant: A Universal Chart Multimodal Language Model via
Chart-to-Table Pre-training and Multitask Instruction Tuning [54.89249749894061]
ChartAssistantは、ユニバーサルチャートの理解と推論のためのビジョン言語モデルである。
2段階のトレーニングプロセスを経て、チャートとテキストの調整のために、チャートからテーブルへのパースを事前トレーニングする。
実験により, 最先端UniChart法とChartllama法に比較して, 顕著な性能向上が得られた。
論文 参考訳(メタデータ) (2024-01-04T17:51:48Z) - StructChart: Perception, Structuring, Reasoning for Visual Chart
Understanding [58.38480335579541]
現在のチャート関連タスクは、視覚チャートから情報を抽出することを参照するチャート認識か、抽出されたデータから推論を行うかに焦点を当てている。
本稿では,共同認識と推論タスクのための統一的でラベル効率のよい学習パラダイムを確立することを目的とする。
各種のチャート関連タスクで実験を行い、統合されたチャート認識推論パラダイムの有効性と有望な可能性を実証した。
論文 参考訳(メタデータ) (2023-09-20T12:51:13Z) - UniChart: A Universal Vision-language Pretrained Model for Chart
Comprehension and Reasoning [29.947053208614246]
We present UniChart, a pretrained model for chart comprehension and reasoning。
UniChartは、チャートの関連するテキスト、データ、および視覚要素をエンコードし、その後、チャートグラウンドのテキストデコーダを使用して、自然言語で期待される出力を生成する。
i) チャートから視覚要素(バーや線など)とデータを抽出する低レベルタスク、(ii) チャート理解と推論のスキルを得るための高レベルタスクなどである。
論文 参考訳(メタデータ) (2023-05-24T06:11:17Z) - ChartReader: A Unified Framework for Chart Derendering and Comprehension
without Heuristic Rules [89.75395046894809]
ChartReaderは、チャートのデレンダリングと理解タスクをシームレスに統合する統合フレームワークです。
提案手法には,トランスフォーマーに基づくチャートコンポーネント検出モジュールと,チャートからXまでのタスクに対する事前学習型視覚言語モデルが組み込まれている。
提案するフレームワークは,チャート解析に係わる作業を大幅に削減し,ユニバーサルチャート理解モデルへの一歩を踏み出すことができる。
論文 参考訳(メタデータ) (2023-04-05T00:25:27Z) - Unsupervised Task Graph Generation from Instructional Video Transcripts [53.54435048879365]
本研究では,実世界の活動を行う指導ビデオのテキスト書き起こしを提供する環境について考察する。
目標は、これらの重要なステップ間の依存関係関係と同様に、タスクに関連する重要なステップを特定することです。
本稿では,命令調整言語モデルの推論能力とクラスタリングとランキングコンポーネントを組み合わせたタスクグラフ生成手法を提案する。
論文 参考訳(メタデータ) (2023-02-17T22:50:08Z) - PartAL: Efficient Partial Active Learning in Multi-Task Visual Settings [57.08386016411536]
注記すべき画像だけでなく、各アクティブラーニング(AL)にアノテーションを提供するタスクのサブセットを選択する方が効果的であることを示す。
提案手法の有効性を,複数の一般的なマルチタスクデータセットに示す。
論文 参考訳(メタデータ) (2022-11-21T15:08:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。