論文の概要: LLM4Vis: Explainable Visualization Recommendation using ChatGPT
- arxiv url: http://arxiv.org/abs/2310.07652v1
- Date: Wed, 11 Oct 2023 16:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 21:36:47.569750
- Title: LLM4Vis: Explainable Visualization Recommendation using ChatGPT
- Title(参考訳): LLM4Vis: ChatGPTを用いた説明可能な可視化レコメンデーション
- Authors: Lei Wang, Songheng Zhang, Yun Wang, Ee-Peng Lim, Yong Wang
- Abstract要約: そこで我々は,ChatGPTをベースとした新しい手法を提案する。
提案手法は,特徴記述,実演例選択,説明生成,実演例構築,推論ステップを含む。
- 参考スコア(独自算出の注目度): 21.875548217393927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data visualization is a powerful tool for exploring and communicating
insights in various domains. To automate visualization choice for datasets, a
task known as visualization recommendation has been proposed. Various
machine-learning-based approaches have been developed for this purpose, but
they often require a large corpus of dataset-visualization pairs for training
and lack natural explanations for their results. To address this research gap,
we propose LLM4Vis, a novel ChatGPT-based prompting approach to perform
visualization recommendation and return human-like explanations using very few
demonstration examples. Our approach involves feature description,
demonstration example selection, explanation generation, demonstration example
construction, and inference steps. To obtain demonstration examples with
high-quality explanations, we propose a new explanation generation
bootstrapping to iteratively refine generated explanations by considering the
previous generation and template-based hint. Evaluations on the VizML dataset
show that LLM4Vis outperforms or performs similarly to supervised learning
models like Random Forest, Decision Tree, and MLP in both few-shot and
zero-shot settings. The qualitative evaluation also shows the effectiveness of
explanations generated by LLM4Vis. We make our code publicly available at
\href{https://github.com/demoleiwang/LLM4Vis}{https://github.com/demoleiwang/LLM4Vis}.
- Abstract(参考訳): データ可視化は、さまざまな領域の洞察を探索し、伝達するための強力なツールである。
データセットの可視化選択を自動化するために、可視化レコメンデーションと呼ばれるタスクが提案されている。
この目的のために様々な機械学習ベースのアプローチが開発されているが、トレーニングには大量のデータセットと視覚のペアが必要であり、結果に自然な説明が欠けていることが多い。
この研究ギャップに対処するために,我々は,ChatGPTをベースとした新しいプロンプトアプローチであるLSM4Visを提案し,ごく少数の実演例を用いて,可視化レコメンデーションを行い,人間的な説明を返す。
提案手法は,特徴記述,実演例選択,説明生成,実演例構築,推論ステップを含む。
高品質な説明を伴う実演例を得るために,前世代とテンプレートに基づくヒントを考慮し,反復的に説明を洗練するための説明生成ブートストラップを提案する。
VizMLデータセットの評価によると、LLM4Visはランダムフォレスト、決定木、MLPといった教師付き学習モデルと、少数ショットとゼロショットの両方の設定で比較または類似して動作する。
また,LLM4Visによる説明の有効性についても定性評価を行った。
当社のコードは、 \href{https://github.com/demoleiwang/LLM4Vis}{https://github.com/demoleiwang/LLM4Vis} で公開しています。
関連論文リスト
- V-RECS, a Low-Cost LLM4VIS Recommender with Explanations, Captioning and Suggestions [3.3235895997314726]
本稿では,説明文(E),キャプション(C),提案文(S)を付加した初のビジュアルレコメンダであるV-RECSについて述べる。
V-RECSの視覚化は、専門家でないユーザによる応答検証とデータ探索の両方を容易にする。
論文 参考訳(メタデータ) (2024-06-21T15:50:10Z) - Exploring the Distinctiveness and Fidelity of the Descriptions Generated by Large Vision-Language Models [16.524244395901356]
我々は,Open-FlamingoやIDEFICS,MiniGPT-4といったモデルが類似したオブジェクトを識別し,視覚的特徴を正確に記述する方法について検討する。
テキスト検索・拡張分類(TRAC)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-26T16:59:26Z) - Vi(E)va LLM! A Conceptual Stack for Evaluating and Interpreting
Generative AI-based Visualizations [1.709620026135923]
大規模言語モデル(LLM)は、可視化に関連する生成タスクをサポートするための興味深い選択肢となっている。
本稿では,LLMを用いて生成した可視化の評価をモデル化する問題に対処する。
本稿では,原子部品の評価を分解する理論評価スタックEvaLLMを提案する。
論文 参考訳(メタデータ) (2024-02-03T14:28:55Z) - Silkie: Preference Distillation for Large Visual Language Models [56.10697821410489]
本稿では,大型視覚言語モデル(LVLM)の嗜好蒸留について検討する。
まず,AIアノテーションを用いた視覚言語フィードバックデータセットを構築した。
我々は, GPT-4V を用いて, 有用性, 視覚的忠実性, 倫理的考察のアウトプットを評価する。
結果として得られたモデルSilkieは、認知能力と認知能力に関するMMEベンチマークで6.9%と9.5%の相対的な改善を達成している。
論文 参考訳(メタデータ) (2023-12-17T09:44:27Z) - From Wrong To Right: A Recursive Approach Towards Vision-Language
Explanation [60.746079839840895]
ReVisE: a $textbfRe$cursive $textbfVis$ual $textbfE$xplanationアルゴリズムを示します。
本手法は,視覚的特徴(テキスト入力で条件付き),回答,説明を反復的に計算する。
この多段階のアプローチは、モデルが自身の回答を正し、単段階の説明生成よりも優れた結果をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-11-21T07:02:32Z) - What Makes for Good Visual Instructions? Synthesizing Complex Visual
Reasoning Instructions for Visual Instruction Tuning [115.19451843294154]
マルチモーダル大言語モデル(MLLM)のゼロショット一般化能力向上のためのビジュアルインストラクションチューニング
本稿では,高品質な視覚的推論命令を自動生成するための体系的アプローチを提案する。
我々のデータセットは、MME-CognitionにおけるMiniGPT-4とBLIP-2の性能をそれぞれ32.6%、28.8%向上させるなど、比較したMLLMの性能を一貫して向上させる。
論文 参考訳(メタデータ) (2023-11-02T15:36:12Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Mitigating Hallucination in Large Multi-Modal Models via Robust Instruction Tuning [92.85265959892115]
本稿では,Large-scale Robust Visual (LRV)-Instructionという,大規模かつ多様な視覚的インストラクションチューニングデータセットを紹介する。
本データセットは, GPT4が生成した400kの視覚的命令からなり, 16の視覚・言語的タスクをオープンエンドの指示と回答でカバーする。
LMMが生み出す幻覚を効果的に測定するために,人間の専門家による視覚指導のチューニングを安定的に評価するためのGAVIE(GPT4-Assisted Visual Instruction Evaluation)を提案する。
論文 参考訳(メタデータ) (2023-06-26T10:26:33Z) - e-ViL: A Dataset and Benchmark for Natural Language Explanations in
Vision-Language Tasks [52.918087305406296]
説明可能な視覚言語タスクを評価するベンチマークe-ViLを紹介します。
また、NLEで最大のデータセットであるe-SNLI-VEについても紹介する。
画像とテキストの共同埋め込みを学習するUNITERと、予め訓練された言語モデルであるGPT-2を組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-05-08T18:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。