論文の概要: XNLI: Explaining and Diagnosing NLI-based Visual Data Analysis
- arxiv url: http://arxiv.org/abs/2301.10385v1
- Date: Wed, 25 Jan 2023 02:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 16:06:04.259612
- Title: XNLI: Explaining and Diagnosing NLI-based Visual Data Analysis
- Title(参考訳): XNLI: NLIベースのビジュアルデータ分析の説明と診断
- Authors: Yingchaojie Feng, Xingbo Wang, Bo Pan, Kam Kwai Wong, Yi Ren, Shi Liu,
Zihan Yan, Yuxin Ma, Huamin Qu, Wei Chen
- Abstract要約: 自然言語インタフェース(NLI)は、ユーザがデータ視覚化における分析意図を柔軟に指定できるようにする。
視覚データ解析のための説明可能なNLIシステムであるXNLIを提案する。
- 参考スコア(独自算出の注目度): 34.115939679759684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language interfaces (NLIs) enable users to flexibly specify
analytical intentions in data visualization. However, diagnosing the
visualization results without understanding the underlying generation process
is challenging. Our research explores how to provide explanations for NLIs to
help users locate the problems and further revise the queries. We present XNLI,
an explainable NLI system for visual data analysis. The system introduces a
Provenance Generator to reveal the detailed process of visual transformations,
a suite of interactive widgets to support error adjustments, and a Hint
Generator to provide query revision hints based on the analysis of user queries
and interactions. Two usage scenarios of XNLI and a user study verify the
effectiveness and usability of the system. Results suggest that XNLI can
significantly enhance task accuracy without interrupting the NLI-based analysis
process.
- Abstract(参考訳): 自然言語インタフェース(NLI)は、ユーザがデータ視覚化における分析意図を柔軟に指定できるようにする。
しかし、基礎となる生成過程を理解せずに視覚化結果の診断は困難である。
本研究は,NLIの問題点の特定とクエリの修正を支援するための説明方法を探るものである。
視覚データ解析のための説明可能なNLIシステムであるXNLIを提案する。
このシステムでは、視覚変換の詳細なプロセスを明らかにするProvenance Generator、エラー調整をサポートするインタラクティブウィジェットスイート、ユーザクエリとインタラクションの分析に基づいてクエリリビジョンヒントを提供するHint Generatorを導入している。
XNLIとユーザスタディの2つの利用シナリオは、システムの有効性とユーザビリティを検証する。
xnliはnli解析プロセスを中断することなくタスク精度を大幅に向上できることが示唆された。
関連論文リスト
- Interactive Analysis of LLMs using Meaningful Counterfactuals [22.755345889167934]
カウンターファクト例は、機械学習モデルの意思決定境界を探索するのに有用である。
LLMの分析・説明に反事実的手法をどう適用すればいいのか?
本稿では,完全かつ意味のあるテキストの反事実のバッチを生成するための新しいアルゴリズムを提案する。
我々の実験では、カウンターファクトの97.2%が文法的に正しい。
論文 参考訳(メタデータ) (2024-04-23T19:57:03Z) - generAItor: Tree-in-the-Loop Text Generation for Language Model
Explainability and Adaptation [28.715001906405362]
大規模言語モデル(LLM)は、自動補完、補助的な書き込み、チャットベースのテキスト生成など、様々な下流タスクに広くデプロイされている。
本稿では,ビーム探索ツリーの視覚的表現を解析,説明,適応する中心的な要素とする,ループ内ツリーのアプローチを提案することで,この欠点に対処する。
視覚解析技術であるGenerAItorを,タスク固有のウィジェットで中央ビーム探索木を拡大し,ターゲットとした可視化とインタラクションの可能性を提供する。
論文 参考訳(メタデータ) (2024-03-12T13:09:15Z) - LLM4Causal: Democratized Causal Tools for Everyone via Large Language Model [7.052058110182703]
大きな言語モデル(LLM)は、言語理解と一般的なトピックの推論で成功していることを示している。
LLMをLLM4Causalに微調整することで、因果タスクを識別し、対応する関数を実行し、ユーザのクエリと提供されたデータセットに基づいてその数値結果を解釈できる可能性を探る。
論文 参考訳(メタデータ) (2023-12-28T16:59:06Z) - AVIS: Autonomous Visual Information Seeking with Large Language Model
Agent [123.75169211547149]
本稿では,視覚的質問応答フレームワークAVISを提案する。
本手法は,LLM(Large Language Model)を利用して外部ツールの利用を動的に強化する。
AVIS は Infoseek や OK-VQA などの知識集約型視覚質問応答ベンチマークの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-06-13T20:50:22Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - Interactive Visual Pattern Search on Graph Data via Graph Representation
Learning [20.795511688640296]
視覚分析システムGraphQは、ループ内、サンプルベース、サブグラフパターン検索をサポートする。
高速で対話的なクエリをサポートするために、グラフニューラルネットワーク(GNN)を使用して、グラフを固定長潜在ベクトル表現としてエンコードする。
また,NuroAlignと呼ばれるノードアライメントのための新しいGNNを提案し,クエリ結果の検証と解釈を容易にする。
論文 参考訳(メタデータ) (2022-02-18T22:30:28Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Quda: Natural Language Queries for Visual Data Analytics [33.983060903399554]
我々は、V-NLIが自由形式の自然言語から解析タスクを認識するのを支援するために、Qudaと呼ばれる新しいデータセットを提案する。
私たちのデータセットには14,035ドルの多様なユーザクエリが含まれており、それぞれに1つまたは複数の分析タスクがアノテートされている。
この研究は、解析的タスクを認識するための大規模コーパスを構築する最初の試みである。
論文 参考訳(メタデータ) (2020-05-07T05:35:16Z) - A Revised Generative Evaluation of Visual Dialogue [80.17353102854405]
本稿では,VisDialデータセットの改訂評価手法を提案する。
モデルが生成した回答と関連する回答の集合のコンセンサスを測定する。
DenseVisDialとして改訂された評価スキームのこれらのセットとコードをリリースする。
論文 参考訳(メタデータ) (2020-04-20T13:26:45Z) - ConvLab-2: An Open-Source Toolkit for Building, Evaluating, and
Diagnosing Dialogue Systems [107.35174238206525]
ConvLab-2は、研究者が最先端のモデルでタスク指向の対話システムを構築することができるオープンソースのツールキットである。
分析ツールは、豊富な統計情報を示し、シミュレーションされた対話から一般的な誤りを要約する。
このインタラクティブツールは、システムと対話し、各システムコンポーネントの出力を変更することで、統合された対話システムの診断を可能にする。
論文 参考訳(メタデータ) (2020-02-12T04:31:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。