論文の概要: nvBench: A Large-Scale Synthesized Dataset for Cross-Domain Natural
Language to Visualization Task
- arxiv url: http://arxiv.org/abs/2112.12926v1
- Date: Fri, 24 Dec 2021 03:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 17:28:06.638146
- Title: nvBench: A Large-Scale Synthesized Dataset for Cross-Domain Natural
Language to Visualization Task
- Title(参考訳): nvbench:クロスドメイン自然言語と可視化タスクのための大規模合成データセット
- Authors: Yuyu Luo, Jiawei Tang, Guoliang Li
- Abstract要約: 105ドメイン上の750テーブルから25,750(NL, VIS)のペアを含む,最初の大規模NL2VISベンチマークであるnvBenchを提案する。
nvBenchの品質は、23人の専門家と300人以上の群衆労働者によって広く検証されている。
- 参考スコア(独自算出の注目度): 15.009563490979689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: NL2VIS - which translates natural language (NL) queries to corresponding
visualizations (VIS) - has attracted more and more attention both in commercial
visualization vendors and academic researchers. In the last few years, the
advanced deep learning-based models have achieved human-like abilities in many
natural language processing (NLP) tasks, which clearly tells us that the deep
learning-based technique is a good choice to push the field of NL2VIS. However,
a big balk is the lack of benchmarks with lots of (NL, VIS) pairs. We present
nvBench, the first large-scale NL2VIS benchmark, containing 25,750 (NL, VIS)
pairs from 750 tables over 105 domains, synthesized from (NL, SQL) benchmarks
to support cross-domain NL2VIS task. The quality of nvBench has been
extensively validated by 23 experts and 300+ crowd workers. Deep learning-based
models training using nvBench demonstrate that nvBench can push the field of
NL2VIS.
- Abstract(参考訳): 自然言語(NL)クエリを対応する視覚化(VIS)に変換するNL2VISは、商用の視覚化ベンダーと学術研究者の両方で注目を集めている。
過去数年間、高度なディープラーニングベースのモデルは、多くの自然言語処理(NLP)タスクにおいて人間のような能力を達成した。
しかし、大きなバルクは、多くの(NL、VIS)ペアを持つベンチマークの欠如である。
105ドメイン上の750テーブルから25,750(NL, VIS)のペアを含む,最初の大規模NL2VISベンチマークであるnvBenchを,クロスドメインNL2VISタスクをサポートするために,(NL, SQL)ベンチマークから合成した。
nvBenchの品質は、23人の専門家と300人以上の群衆労働者によって広く検証されている。
nvBenchを用いたディープラーニングモデルトレーニングでは、nvBenchがNL2VISの分野を推し進めることができる。
関連論文リスト
- MAVIS: Mathematical Visual Instruction Tuning with an Automatic Data Engine [85.80851893886161]
MLLMのための数学的なVISual命令チューニングパイプラインであるMAVISを提案する。
我々はMAVIS-Captionを用いて、図形視覚符号化の改善に適したコントラスト学習により、数学固有の視覚エンコーダ(CLIP-Math)を微調整する。
第3に、ロバストな問題解決スキルの指導チューニングを行うためにMAVIS-Instructを採用し、結果のモデルをMAVIS-7Bと呼ぶ。
論文 参考訳(メタデータ) (2024-07-11T17:59:47Z) - VisEval: A Benchmark for Data Visualization in the Era of Large Language Models [12.077276008688065]
事前訓練された大規模言語モデル(LLM)の最近の進歩は、自然言語から可視化を生成するための新たな道を開いた。
本稿では,新しいNL2VISベンチマークであるVisEvalを提案する。
このデータセットには、146のデータベースをカバーする2,524の代表的なクエリが含まれており、正確にラベル付けされた基底真理とペアリングされている。
論文 参考訳(メタデータ) (2024-07-01T05:35:30Z) - Automated Data Visualization from Natural Language via Large Language Models: An Exploratory Study [41.84915013818794]
The Natural Language to Visualization (NL2Vis) taskは、自然言語記述を接地テーブルの視覚表現に変換することを目的としている。
多くのディープラーニングベースのアプローチがNL2Vis向けに開発されているが、目に見えないデータベースや複数のテーブルにまたがるデータの視覚化には課題が続いている。
本稿では,Large Language Models (LLMs) の顕著な生成能力からインスピレーションを得て,その可能性を評価するための実証的研究を行う。
論文 参考訳(メタデータ) (2024-04-26T03:25:35Z) - What Are We Measuring When We Evaluate Large Vision-Language Models? An Analysis of Latent Factors and Biases [87.65903426052155]
データから潜在視覚言語スキルの発見を目的とした大規模な移動学習実験を行った。
生成タスクが長さバイアスに悩まされることを示し、ベンチマークは出力長の異なるタスクのバランスをとるべきであることを示唆する。
我々は新しいデータセットOLIVEを提示し、そこでユーザーの指示をシミュレーションし、テストしたすべてのデータセットと異なる課題を提示します。
論文 参考訳(メタデータ) (2024-04-03T02:40:35Z) - Prompt4Vis: Prompting Large Language Models with Example Mining and
Schema Filtering for Tabular Data Visualization [13.425454489560376]
本稿では,自然言語からデータビジュアライゼーションクエリを生成するフレームワークであるPrompt4Visを紹介する。
データビジュアライゼーションクエリを生成するためのテキスト・ツー・ビジュアリーに、インコンテキスト・ラーニングが導入される。
Prompt4Visは最先端(SOTA)のRGVisNetを約35.9%、開発とテストセットで71.3%上回っている。
論文 参考訳(メタデータ) (2024-01-29T10:23:47Z) - Improving Domain-Specific Retrieval by NLI Fine-Tuning [64.79760042717822]
本稿では、自然言語推論(NLI)データの微調整の可能性を調べ、情報検索とランキングを改善する。
コントラスト損失とNLIデータを利用した教師あり手法により細調整された単言語文エンコーダと多言語文エンコーダを併用する。
この結果から,NLIの微調整によりタスクおよび言語間のモデルの性能が向上し,単言語モデルと多言語モデルが改良される可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-06T12:40:58Z) - A Generalized Framework for Video Instance Segmentation [49.41441806931224]
ビデオインスタンスセグメンテーション(VIS)コミュニティでは,複雑なシーケンスと隠蔽シーケンスによる長いビデオの処理が,新たな課題として浮上している。
我々は、挑戦的なベンチマーク上で最先端のパフォーマンスを達成するための、VISの一般化されたフレームワーク、すなわちGenVISを提案する。
我々は、YouTube-VIS 2019/2021/2022およびOccluded VIS (OVIS)上で、人気VISベンチマークに対する我々のアプローチを評価した。
論文 参考訳(メタデータ) (2022-11-16T11:17:19Z) - e-ViL: A Dataset and Benchmark for Natural Language Explanations in
Vision-Language Tasks [52.918087305406296]
説明可能な視覚言語タスクを評価するベンチマークe-ViLを紹介します。
また、NLEで最大のデータセットであるe-SNLI-VEについても紹介する。
画像とテキストの共同埋め込みを学習するUNITERと、予め訓練された言語モデルであるGPT-2を組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-05-08T18:46:33Z) - GLGE: A New General Language Generation Evaluation Benchmark [139.25515221280767]
General Language Generation Evaluation (GLGE)は、NLGモデルの一般化能力を評価するための新しいマルチタスクベンチマークである。
NLGモデルにおける事前学習と伝達学習の研究を促進するため、GLGEを一般公開し、強力なベースラインを持つリーダーボードを構築する。
論文 参考訳(メタデータ) (2020-11-24T06:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。