論文の概要: nvBench: A Large-Scale Synthesized Dataset for Cross-Domain Natural
Language to Visualization Task
- arxiv url: http://arxiv.org/abs/2112.12926v1
- Date: Fri, 24 Dec 2021 03:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 17:28:06.638146
- Title: nvBench: A Large-Scale Synthesized Dataset for Cross-Domain Natural
Language to Visualization Task
- Title(参考訳): nvbench:クロスドメイン自然言語と可視化タスクのための大規模合成データセット
- Authors: Yuyu Luo, Jiawei Tang, Guoliang Li
- Abstract要約: 105ドメイン上の750テーブルから25,750(NL, VIS)のペアを含む,最初の大規模NL2VISベンチマークであるnvBenchを提案する。
nvBenchの品質は、23人の専門家と300人以上の群衆労働者によって広く検証されている。
- 参考スコア(独自算出の注目度): 15.009563490979689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: NL2VIS - which translates natural language (NL) queries to corresponding
visualizations (VIS) - has attracted more and more attention both in commercial
visualization vendors and academic researchers. In the last few years, the
advanced deep learning-based models have achieved human-like abilities in many
natural language processing (NLP) tasks, which clearly tells us that the deep
learning-based technique is a good choice to push the field of NL2VIS. However,
a big balk is the lack of benchmarks with lots of (NL, VIS) pairs. We present
nvBench, the first large-scale NL2VIS benchmark, containing 25,750 (NL, VIS)
pairs from 750 tables over 105 domains, synthesized from (NL, SQL) benchmarks
to support cross-domain NL2VIS task. The quality of nvBench has been
extensively validated by 23 experts and 300+ crowd workers. Deep learning-based
models training using nvBench demonstrate that nvBench can push the field of
NL2VIS.
- Abstract(参考訳): 自然言語(NL)クエリを対応する視覚化(VIS)に変換するNL2VISは、商用の視覚化ベンダーと学術研究者の両方で注目を集めている。
過去数年間、高度なディープラーニングベースのモデルは、多くの自然言語処理(NLP)タスクにおいて人間のような能力を達成した。
しかし、大きなバルクは、多くの(NL、VIS)ペアを持つベンチマークの欠如である。
105ドメイン上の750テーブルから25,750(NL, VIS)のペアを含む,最初の大規模NL2VISベンチマークであるnvBenchを,クロスドメインNL2VISタスクをサポートするために,(NL, SQL)ベンチマークから合成した。
nvBenchの品質は、23人の専門家と300人以上の群衆労働者によって広く検証されている。
nvBenchを用いたディープラーニングモデルトレーニングでは、nvBenchがNL2VISの分野を推し進めることができる。
関連論文リスト
- Prompt4Vis: Prompting Large Language Models with Example Mining and
Schema Filtering for Tabular Data Visualization [13.425454489560376]
本稿では,自然言語からデータビジュアライゼーションクエリを生成するフレームワークであるPrompt4Visを紹介する。
データビジュアライゼーションクエリを生成するためのテキスト・ツー・ビジュアリーに、インコンテキスト・ラーニングが導入される。
Prompt4Visは最先端(SOTA)のRGVisNetを約35.9%、開発とテストセットで71.3%上回っている。
論文 参考訳(メタデータ) (2024-01-29T10:23:47Z) - Uni-NLX: Unifying Textual Explanations for Vision and Vision-Language
Tasks [23.74374150111141]
自然言語説明(NLE)は、人間に優しい自然文によるモデルの予測を補うことを目的としている。
我々は,すべてのNLEタスクを単一かつコンパクトなマルチタスクモデルに統合する統一フレームワークUni-NLXを提案する。
1Mの複合NLEサンプルをトレーニングすることにより、単一の統一フレームワークが同時に7つのNLEタスクを実行することができる。
論文 参考訳(メタデータ) (2023-08-17T15:15:55Z) - Improving Domain-Specific Retrieval by NLI Fine-Tuning [64.79760042717822]
本稿では、自然言語推論(NLI)データの微調整の可能性を調べ、情報検索とランキングを改善する。
コントラスト損失とNLIデータを利用した教師あり手法により細調整された単言語文エンコーダと多言語文エンコーダを併用する。
この結果から,NLIの微調整によりタスクおよび言語間のモデルの性能が向上し,単言語モデルと多言語モデルが改良される可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-06T12:40:58Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Large Language Models Meet NL2Code: A Survey [19.606985859571083]
NL2Code用の27の既存大規模言語モデルに関する包括的調査を行う。
NL2Codeの大規模言語モデルの成功に寄与する主な要因は、"大規模サイズ、プレミアムデータ、エキスパートチューニング"である。
論文 参考訳(メタデータ) (2022-12-19T12:55:32Z) - A Generalized Framework for Video Instance Segmentation [49.41441806931224]
ビデオインスタンスセグメンテーション(VIS)コミュニティでは,複雑なシーケンスと隠蔽シーケンスによる長いビデオの処理が,新たな課題として浮上している。
我々は、挑戦的なベンチマーク上で最先端のパフォーマンスを達成するための、VISの一般化されたフレームワーク、すなわちGenVISを提案する。
我々は、YouTube-VIS 2019/2021/2022およびOccluded VIS (OVIS)上で、人気VISベンチマークに対する我々のアプローチを評価した。
論文 参考訳(メタデータ) (2022-11-16T11:17:19Z) - How Much Can CLIP Benefit Vision-and-Language Tasks? [121.46042421728016]
CLIP (Contrastive Language- Image Pre-training) は大量の画像キャプチャーペアに基づいて訓練されており、様々な視覚タスクにおいて強力なゼロショット能力を示している。
多様なV&Lタスクの競合的あるいはより良い結果を得るとともに、ビジュアル質問応答、ビジュアルエンタテインメント、V&Lナビゲーションタスクに関する最新の結果を確立する。
論文 参考訳(メタデータ) (2021-07-13T20:48:12Z) - e-ViL: A Dataset and Benchmark for Natural Language Explanations in
Vision-Language Tasks [52.918087305406296]
説明可能な視覚言語タスクを評価するベンチマークe-ViLを紹介します。
また、NLEで最大のデータセットであるe-SNLI-VEについても紹介する。
画像とテキストの共同埋め込みを学習するUNITERと、予め訓練された言語モデルであるGPT-2を組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-05-08T18:46:33Z) - GLGE: A New General Language Generation Evaluation Benchmark [139.25515221280767]
General Language Generation Evaluation (GLGE)は、NLGモデルの一般化能力を評価するための新しいマルチタスクベンチマークである。
NLGモデルにおける事前学習と伝達学習の研究を促進するため、GLGEを一般公開し、強力なベースラインを持つリーダーボードを構築する。
論文 参考訳(メタデータ) (2020-11-24T06:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。