論文の概要: Using Large Language Models to Generate Engaging Captions for Data
Visualizations
- arxiv url: http://arxiv.org/abs/2212.14047v1
- Date: Tue, 27 Dec 2022 23:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 01:38:43.572188
- Title: Using Large Language Models to Generate Engaging Captions for Data
Visualizations
- Title(参考訳): 大規模言語モデルを用いたデータ可視化のための拡張キャプションの生成
- Authors: Ashley Liew, Klaus Mueller
- Abstract要約: 大規模言語モデル(LLM)は、高度なディープラーニング技術を用いて人間のような散文を生成する。
主な課題は、プロンプトエンジニアリングと呼ばれるLLMの最も効果的なプロンプトを設計することである。
我々は,LLM GPT-3を用いた最初の実験について報告し,いくつかの有望な結果を得た。
- 参考スコア(独自算出の注目度): 51.98253121636079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creating compelling captions for data visualizations has been a longstanding
challenge. Visualization researchers are typically untrained in journalistic
reporting and hence the captions that are placed below data visualizations tend
to be not overly engaging and rather just stick to basic observations about the
data. In this work we explore the opportunities offered by the newly emerging
crop of large language models (LLM) which use sophisticated deep learning
technology to produce human-like prose. We ask, can these powerful software
devices be purposed to produce engaging captions for generic data
visualizations like a scatterplot. It turns out that the key challenge lies in
designing the most effective prompt for the LLM, a task called prompt
engineering. We report on first experiments using the popular LLM GPT-3 and
deliver some promising results.
- Abstract(参考訳): データビジュアライゼーションのための魅力的なキャプションを作ることは、長年の課題だった。
ビジュアライゼーション研究者は通常、ジャーナリストの報告では訓練されていないため、データビジュアライゼーションの下に置かれるキャプションは、過剰なエンゲージメントではなく、データに関する基本的な観察に固執する傾向がある。
本研究では,高度な深層学習技術を用いて人間のような韻律を作り出す,新たに出現する大規模言語モデル(llm)の機会を探究する。
これらの強力なソフトウェアデバイスは、sptterplotのような汎用データビジュアライゼーションのための魅力的なキャプションを生成するために使われるのだろうか?
重要な課題は、プロンプトエンジニアリングと呼ばれる、LLMの最も効果的なプロンプトを設計することにある。
LLM GPT-3を用いた最初の実験について報告する。
関連論文リスト
- Large Language Models Understand Layout [6.732578061359833]
大規模言語モデル(LLM)は、幅広い自然言語処理(NLP)タスクにおいて異常な能力を示す。
テキスト理解能力以外にも,空間マーカーで表されるテキストレイアウトをLLMで処理できることが示されている。
レイアウト理解能力は,視覚的質問応答(VQA)システム構築に有用であることを示す。
論文 参考訳(メタデータ) (2024-07-08T09:03:12Z) - Can LLMs Generate Visualizations with Dataless Prompts? [17.280610067626135]
本研究では,このようなクエリに応答して,大規模言語モデルが正確なデータと関連する視覚化を提供する能力について検討する。
具体的には、GPT-3とGPT-4がデータレスプロンプトでビジュアライゼーションを生成する能力について検討する。
論文 参考訳(メタデータ) (2024-06-22T22:59:09Z) - Self-Training Large Language Models for Improved Visual Program Synthesis With Visual Reinforcement [93.73648674743097]
ビジュアルプログラム合成は、構成型コンピュータビジョンタスクのための大規模言語モデルの推論能力を利用するための有望なアプローチである。
それまでの作業では、視覚プログラムを合成するために、凍結LDMを使用した数発のプロンプトを使用していた。
トレーニング用ビジュアルプログラムのデータセットは存在せず、ビジュアルプログラムデータセットの取得は簡単にクラウドソーシングできない。
論文 参考訳(メタデータ) (2024-04-06T13:25:00Z) - Large Language Models for Data Annotation: A Survey [49.8318827245266]
LLM(Advanced Large Language Models)の出現は、データアノテーションの複雑なプロセスを自動化する前例のない機会を提供する。
この調査には、LLMが注釈付けできるデータタイプの詳細な分類、LLM生成アノテーションを利用したモデルの学習戦略のレビュー、データアノテーションにLLMを使用する際の主な課題と制限に関する詳細な議論が含まれている。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - Learning to Prompt with Text Only Supervision for Vision-Language Models [107.282881515667]
メソッドの1つのブランチは、視覚情報を使用してプロンプトを学習することでCLIPに適応する。
別のアプローチでは、大規模な言語モデルからクラス記述を生成することで、トレーニング不要の手法を利用する。
そこで本研究では,テキストデータのみを用いてプロンプトを学習することで,両ストリームの強みを組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-01-04T18:59:49Z) - Automatic Data Visualization Generation from Chinese Natural Language
Questions [23.777512332679194]
本論文では,中国語のテキスト・ツー・ヴィジュアライズ・データセットを提案し,この問題に対処するための最初の試みを実証する。
我々のモデルは,多言語BERTをエンコーダとして統合し,言語間能力を高め,語表現学習に$n$-gramの情報を注入する。
論文 参考訳(メタデータ) (2023-09-14T12:16:21Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - Advancing Visual Specification of Code Requirements for Graphs [0.0]
本稿では,機械学習を用いた有意義なデータの可視化に焦点をあてる。
我々は、人文科学研究者が視覚化のプログラム方法を学ぶための障壁を低くするために、ユーザが視覚的にコード要件を指定できるようにします。
ニューラルネットワークと光学文字認識を組み合わせたハイブリッドモデルを用いて、コードを生成して視覚化する。
論文 参考訳(メタデータ) (2020-07-29T17:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。