論文の概要: Quda: Natural Language Queries for Visual Data Analytics
- arxiv url: http://arxiv.org/abs/2005.03257v5
- Date: Thu, 3 Dec 2020 06:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 23:52:06.431471
- Title: Quda: Natural Language Queries for Visual Data Analytics
- Title(参考訳): Quda:ビジュアルデータ分析のための自然言語クエリ
- Authors: Siwei Fu, Kai Xiong, Xiaodong Ge, Siliang Tang, Wei Chen, Yingcai Wu
- Abstract要約: 我々は、V-NLIが自由形式の自然言語から解析タスクを認識するのを支援するために、Qudaと呼ばれる新しいデータセットを提案する。
私たちのデータセットには14,035ドルの多様なユーザクエリが含まれており、それぞれに1つまたは複数の分析タスクがアノテートされている。
この研究は、解析的タスクを認識するための大規模コーパスを構築する最初の試みである。
- 参考スコア(独自算出の注目度): 33.983060903399554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The identification of analytic tasks from free text is critical for
visualization-oriented natural language interfaces (V-NLIs) to suggest
effective visualizations. However, it is challenging due to the ambiguity and
complexity nature of human language. To address this challenge, we present a
new dataset, called Quda, that aims to help V-NLIs recognize analytic tasks
from free-form natural language by training and evaluating cutting-edge
multi-label classification models. Our dataset contains $14,035$ diverse user
queries, and each is annotated with one or multiple analytic tasks. We achieve
this goal by first gathering seed queries with data analysts and then employing
extensive crowd force for paraphrase generation and validation. We demonstrate
the usefulness of Quda through three applications. This work is the first
attempt to construct a large-scale corpus for recognizing analytic tasks. With
the release of Quda, we hope it will boost the research and development of
V-NLIs in data analysis and visualization.
- Abstract(参考訳): 可視化指向自然言語インタフェース(V-NLI)では,自由テキストから解析タスクを識別することが重要である。
しかし、人間の言語の曖昧さと複雑さが原因で困難である。
この課題に対処するために、我々は、v-nlisが、最先端のマルチラベル分類モデルを訓練し、評価することで、自由形式の自然言語から分析タスクを認識できるようにする、qudaと呼ばれる新しいデータセットを提案する。
当社のデータセットには14,035ドルの多様なユーザクエリが含まれており、それぞれに1つまたは複数の分析タスクをアノテートしています。
この目的を達成するために、まずデータアナリストとシードクエリを収集し、その後、パラフレーズ生成と検証に広範囲のクラウドフォースを採用する。
3つの応用を通してQudaの有用性を示す。
この研究は、解析的タスクを認識するための大規模コーパスを構築する最初の試みである。
Qudaのリリースにより、データ分析と視覚化におけるV-NLIの研究と開発が促進されることを願っています。
関連論文リスト
- Data Formulator 2: Iteratively Creating Rich Visualizations with AI [65.48447317310442]
これらの課題に対処するためのLCMを利用した可視化システムであるData Formulator 2を提案する。
Data Formulator 2では、ユーザはUIと自然言語をブレンドして視覚化の意図を記述し、データ変換はAIに委譲される。
イテレーションをサポートするため、Data Formulator 2では、ユーザがイテレーション履歴をナビゲートし、以前の設計を新しい設計に再利用することで、毎回スクラッチから始める必要がない。
論文 参考訳(メタデータ) (2024-08-28T20:12:17Z) - VisEval: A Benchmark for Data Visualization in the Era of Large Language Models [12.077276008688065]
事前訓練された大規模言語モデル(LLM)の最近の進歩は、自然言語から可視化を生成するための新たな道を開いた。
本稿では,新しいNL2VISベンチマークであるVisEvalを提案する。
このデータセットには、146のデータベースをカバーする2,524の代表的なクエリが含まれており、正確にラベル付けされた基底真理とペアリングされている。
論文 参考訳(メタデータ) (2024-07-01T05:35:30Z) - Prompt4Vis: Prompting Large Language Models with Example Mining and
Schema Filtering for Tabular Data Visualization [13.425454489560376]
本稿では,自然言語からデータビジュアライゼーションクエリを生成するフレームワークであるPrompt4Visを紹介する。
データビジュアライゼーションクエリを生成するためのテキスト・ツー・ビジュアリーに、インコンテキスト・ラーニングが導入される。
Prompt4Visは最先端(SOTA)のRGVisNetを約35.9%、開発とテストセットで71.3%上回っている。
論文 参考訳(メタデータ) (2024-01-29T10:23:47Z) - Text2Analysis: A Benchmark of Table Question Answering with Advanced
Data Analysis and Unclear Queries [67.0083902913112]
高度な解析タスクを取り入れたText2Analysisベンチマークを開発した。
また,5つのイノベーティブかつ効果的なアノテーション手法を開発した。
3つの異なる指標を用いて5つの最先端モデルを評価する。
論文 参考訳(メタデータ) (2023-12-21T08:50:41Z) - Automatic Data Visualization Generation from Chinese Natural Language
Questions [23.777512332679194]
本論文では,中国語のテキスト・ツー・ヴィジュアライズ・データセットを提案し,この問題に対処するための最初の試みを実証する。
我々のモデルは,多言語BERTをエンコーダとして統合し,言語間能力を高め,語表現学習に$n$-gramの情報を注入する。
論文 参考訳(メタデータ) (2023-09-14T12:16:21Z) - A deep Natural Language Inference predictor without language-specific
training data [44.26507854087991]
本研究では,言語固有の訓練データセットを使わずに,目的言語における文のペア間の推論関係(NLI)に対処するためのNLP手法を提案する。
我々は、同じトレーニング済みモデルの2つのインスタンスとともに、手動で翻訳される汎用翻訳データセットを利用する。
このモデルは、機械翻訳Stanford NLIテストデータセット、機械翻訳Multi-Genre NLIテストデータセット、手動翻訳RTE3-ITAテストデータセットで評価されている。
論文 参考訳(メタデータ) (2023-09-06T10:20:59Z) - LISA: Reasoning Segmentation via Large Language Model [68.24075852136761]
そこで我々は,新たなセグメンテーションタスク,すなわち推論セグメンテーションを提案する。
このタスクは、複雑で暗黙的なクエリテキストを与えられたセグメンテーションマスクを出力するように設計されている。
提案するLISA: Large Language Instructed Assistantは,マルチモーダル大規模言語モデルの言語生成能力を継承する。
論文 参考訳(メタデータ) (2023-08-01T17:50:17Z) - XTREME-UP: A User-Centric Scarce-Data Benchmark for Under-Represented
Languages [105.54207724678767]
データ不足は、多言語NLPシステムの開発において重要な問題である。
我々はXTREME-UPを提案する。XTREME-UPはゼロショットではなく、希少なデータシナリオに焦点を当てたベンチマークである。
XTREME-UPは、88言語にまたがる言語モデルが、9つのキーとなるユーザー中心技術上で機能する能力を評価する。
論文 参考訳(メタデータ) (2023-05-19T18:00:03Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - Using Large Language Models to Generate Engaging Captions for Data
Visualizations [51.98253121636079]
大規模言語モデル(LLM)は、高度なディープラーニング技術を用いて人間のような散文を生成する。
主な課題は、プロンプトエンジニアリングと呼ばれるLLMの最も効果的なプロンプトを設計することである。
我々は,LLM GPT-3を用いた最初の実験について報告し,いくつかの有望な結果を得た。
論文 参考訳(メタデータ) (2022-12-27T23:56:57Z) - Unravelling Interlanguage Facts via Explainable Machine Learning [10.71581852108984]
我々は、説明可能な機械学習アルゴリズムによって訓練されたNLI分類器の内部に焦点をあてる。
我々は、この視点を用いて、NLIと相補的なタスクの両方に対処し、テキストがネイティブまたは非ネイティブ話者によって書かれたかどうかを推測する。
話者のL1を最も示唆する2つの課題を解くのに最も有効な言語特性について検討する。
論文 参考訳(メタデータ) (2022-08-02T14:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。