論文の概要: XNLI: Explaining and Diagnosing NLI-based Visual Data Analysis
- arxiv url: http://arxiv.org/abs/2301.10385v1
- Date: Wed, 25 Jan 2023 02:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 16:06:04.259612
- Title: XNLI: Explaining and Diagnosing NLI-based Visual Data Analysis
- Title(参考訳): XNLI: NLIベースのビジュアルデータ分析の説明と診断
- Authors: Yingchaojie Feng, Xingbo Wang, Bo Pan, Kam Kwai Wong, Yi Ren, Shi Liu,
Zihan Yan, Yuxin Ma, Huamin Qu, Wei Chen
- Abstract要約: 自然言語インタフェース(NLI)は、ユーザがデータ視覚化における分析意図を柔軟に指定できるようにする。
視覚データ解析のための説明可能なNLIシステムであるXNLIを提案する。
- 参考スコア(独自算出の注目度): 34.115939679759684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language interfaces (NLIs) enable users to flexibly specify
analytical intentions in data visualization. However, diagnosing the
visualization results without understanding the underlying generation process
is challenging. Our research explores how to provide explanations for NLIs to
help users locate the problems and further revise the queries. We present XNLI,
an explainable NLI system for visual data analysis. The system introduces a
Provenance Generator to reveal the detailed process of visual transformations,
a suite of interactive widgets to support error adjustments, and a Hint
Generator to provide query revision hints based on the analysis of user queries
and interactions. Two usage scenarios of XNLI and a user study verify the
effectiveness and usability of the system. Results suggest that XNLI can
significantly enhance task accuracy without interrupting the NLI-based analysis
process.
- Abstract(参考訳): 自然言語インタフェース(NLI)は、ユーザがデータ視覚化における分析意図を柔軟に指定できるようにする。
しかし、基礎となる生成過程を理解せずに視覚化結果の診断は困難である。
本研究は,NLIの問題点の特定とクエリの修正を支援するための説明方法を探るものである。
視覚データ解析のための説明可能なNLIシステムであるXNLIを提案する。
このシステムでは、視覚変換の詳細なプロセスを明らかにするProvenance Generator、エラー調整をサポートするインタラクティブウィジェットスイート、ユーザクエリとインタラクションの分析に基づいてクエリリビジョンヒントを提供するHint Generatorを導入している。
XNLIとユーザスタディの2つの利用シナリオは、システムの有効性とユーザビリティを検証する。
xnliはnli解析プロセスを中断することなくタスク精度を大幅に向上できることが示唆された。
関連論文リスト
- G-Refer: Graph Retrieval-Augmented Large Language Model for Explainable Recommendation [48.23263809469786]
本稿では,グラフ検索拡張大言語モデル (LLM) を用いた提案手法を提案する。
G-Referは、説明可能性と安定性の両方において既存の手法と比較して優れた性能を達成する。
論文 参考訳(メタデータ) (2025-02-18T06:42:38Z) - Overcoming Vision Language Model Challenges in Diagram Understanding: A Proof-of-Concept with XML-Driven Large Language Models Solutions [0.0]
ダイアグラムは、ビジネスドキュメント内の複雑な関係やプロセスを視覚的に伝達する上で重要な役割を担います。
近年の視覚言語モデル(VLM)の様々な画像理解タスクの進歩にもかかわらず、図中の構造を正確に識別し抽出することは大きな課題である。
本研究では,VLMの視覚認識能力への依存を回避し,テキスト駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-05T23:40:26Z) - FaultExplainer: Leveraging Large Language Models for Interpretable Fault Detection and Diagnosis [7.161558367924948]
本稿では,テネシー・イーストマン・プロセス(TEP)における障害検出,診断,説明の改善を目的とした対話型ツールであるFactExplainerを提案する。
FaultExplainerは、リアルタイムセンサデータ可視化、主成分分析(PCA)に基づく障害検出、および大規模言語モデル(LLM)を利用した対話型ユーザインタフェースにおける上位コントリビューション変数の識別を統合する。
2つのシナリオでLLMの推論能力を評価する。1つは歴史的根本原因が提供される場合であり、もう1つは以前に見つからなかった障害の課題を模倣しない場合である。
論文 参考訳(メタデータ) (2024-12-19T03:35:06Z) - Interactive Analysis of LLMs using Meaningful Counterfactuals [22.755345889167934]
カウンターファクト例は、機械学習モデルの意思決定境界を探索するのに有用である。
LLMの分析・説明に反事実的手法をどう適用すればいいのか?
本稿では,完全かつ意味のあるテキストの反事実のバッチを生成するための新しいアルゴリズムを提案する。
我々の実験では、カウンターファクトの97.2%が文法的に正しい。
論文 参考訳(メタデータ) (2024-04-23T19:57:03Z) - LLM4Causal: Democratized Causal Tools for Everyone via Large Language Model [7.052058110182703]
大きな言語モデル(LLM)は、言語理解と一般的なトピックの推論で成功していることを示している。
LLMをLLM4Causalに微調整することで、因果タスクを識別し、対応する関数を実行し、ユーザのクエリと提供されたデータセットに基づいてその数値結果を解釈できる可能性を探る。
論文 参考訳(メタデータ) (2023-12-28T16:59:06Z) - AVIS: Autonomous Visual Information Seeking with Large Language Model
Agent [123.75169211547149]
本稿では,視覚的質問応答フレームワークAVISを提案する。
本手法は,LLM(Large Language Model)を利用して外部ツールの利用を動的に強化する。
AVIS は Infoseek や OK-VQA などの知識集約型視覚質問応答ベンチマークの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-06-13T20:50:22Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Quda: Natural Language Queries for Visual Data Analytics [33.983060903399554]
我々は、V-NLIが自由形式の自然言語から解析タスクを認識するのを支援するために、Qudaと呼ばれる新しいデータセットを提案する。
私たちのデータセットには14,035ドルの多様なユーザクエリが含まれており、それぞれに1つまたは複数の分析タスクがアノテートされている。
この研究は、解析的タスクを認識するための大規模コーパスを構築する最初の試みである。
論文 参考訳(メタデータ) (2020-05-07T05:35:16Z) - A Revised Generative Evaluation of Visual Dialogue [80.17353102854405]
本稿では,VisDialデータセットの改訂評価手法を提案する。
モデルが生成した回答と関連する回答の集合のコンセンサスを測定する。
DenseVisDialとして改訂された評価スキームのこれらのセットとコードをリリースする。
論文 参考訳(メタデータ) (2020-04-20T13:26:45Z) - ConvLab-2: An Open-Source Toolkit for Building, Evaluating, and
Diagnosing Dialogue Systems [107.35174238206525]
ConvLab-2は、研究者が最先端のモデルでタスク指向の対話システムを構築することができるオープンソースのツールキットである。
分析ツールは、豊富な統計情報を示し、シミュレーションされた対話から一般的な誤りを要約する。
このインタラクティブツールは、システムと対話し、各システムコンポーネントの出力を変更することで、統合された対話システムの診断を可能にする。
論文 参考訳(メタデータ) (2020-02-12T04:31:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。