論文の概要: Identifying & Interactively Refining Ambiguous User Goals for Data Visualization Code Generation
- arxiv url: http://arxiv.org/abs/2510.09390v1
- Date: Fri, 10 Oct 2025 13:44:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.191274
- Title: Identifying & Interactively Refining Ambiguous User Goals for Data Visualization Code Generation
- Title(参考訳): データ可視化コード生成のための曖昧なユーザ目標の特定と相互修正
- Authors: Mert İnan, Anthony Sicilia, Alex Xie, Saujas Vaduguru, Daniel Fried, Malihe Alikhani,
- Abstract要約: 本研究では,この課題に現れるあいまいさの分類法を開発し,それらを定量化するための指標を提案する。
我々の研究は、マルチターン対話が曖昧さを減らし、ユーザ目標の整合性を高めてコード精度を向上させる方法についても検討している。
- 参考スコア(独自算出の注目度): 48.63200319578052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Establishing shared goals is a fundamental step in human-AI communication. However, ambiguities can lead to outputs that seem correct but fail to reflect the speaker's intent. In this paper, we explore this issue with a focus on the data visualization domain, where ambiguities in natural language impact the generation of code that visualizes data. The availability of multiple views on the contextual (e.g., the intended plot and the code rendering the plot) allows for a unique and comprehensive analysis of diverse ambiguity types. We develop a taxonomy of types of ambiguity that arise in this task and propose metrics to quantify them. Using Matplotlib problems from the DS-1000 dataset, we demonstrate that our ambiguity metrics better correlate with human annotations than uncertainty baselines. Our work also explores how multi-turn dialogue can reduce ambiguity, therefore, improve code accuracy by better matching user goals. We evaluate three pragmatic models to inform our dialogue strategies: Gricean Cooperativity, Discourse Representation Theory, and Questions under Discussion. A simulated user study reveals how pragmatic dialogues reduce ambiguity and enhance code accuracy, highlighting the value of multi-turn exchanges in code generation.
- Abstract(参考訳): 共通の目標を確立することは、人間とAIのコミュニケーションの基本的なステップである。
しかし曖昧さは、正しいように見えるが話者の意図を反映しない出力につながる可能性がある。
本稿では、自然言語のあいまいさがデータを視覚化するコード生成に影響を及ぼすデータ可視化領域に焦点を当て、この問題を考察する。
コンテキスト的(例えば、意図したプロットとプロットを描画するコード)に関する複数のビューが利用できることで、さまざまな曖昧さのタイプをユニークかつ包括的な分析することが可能になります。
本研究では,この課題に現れるあいまいさの分類法を開発し,それらを定量化するための指標を提案する。
DS-1000データセットのMatplotlib問題を用いて、あいまいさの指標が不確実性ベースラインよりも人間のアノテーションと相関していることを示す。
我々の研究は、マルチターン対話が曖昧さを減らし、ユーザ目標の整合性を高めてコード精度を向上させる方法についても検討している。
本研究は,3つの対話戦略(Gricean Cooperativity, Discourse Representation Theory, 議論中の質問)を評価するための実用的モデルを評価する。
シミュレーションされたユーザスタディでは、プラグマティックな対話が曖昧さを減らし、コードの正確性を高め、コード生成におけるマルチターン交換の価値を強調している。
関連論文リスト
- Trick or Neat: Adversarial Ambiguity and Language Model Evaluation [42.62991342963119]
我々は,言語モデルのあいまいさに対する感度を,敵対的あいまいさデータセットを導入することによって評価する。
モデル表現で訓練された線形プローブは、曖昧さを高精度に復号できるのに対し、直接的プロンプトは曖昧さを確実に識別できないことを示す。
論文 参考訳(メタデータ) (2025-06-01T22:50:06Z) - VAGUE: Visual Contexts Clarify Ambiguous Expressions [26.190504250419547]
VAGUEは、意図の視覚的コンテキストを統合するマルチモーダルAIシステムの能力を評価するベンチマークである。
我々の実験によると、既存のマルチモーダルAIモデルは話者の真の意図を推測するのに苦労している。
失敗事例の分析は、現在のモデルが視覚的なシーンにおける表面的相関と真の意図を区別できないことを示す。
論文 参考訳(メタデータ) (2024-11-21T14:01:42Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - Is the Elephant Flying? Resolving Ambiguities in Text-to-Image
Generative Models [64.58271886337826]
テキストから画像への生成モデルで生じるあいまいさについて検討する。
本稿では,ユーザから明確化を求めることによって,システムに与えられるプロンプトのあいまいさを軽減する枠組みを提案する。
論文 参考訳(メタデータ) (2022-11-17T17:12:43Z) - Imagination is All You Need! Curved Contrastive Learning for Abstract
Sequence Modeling Utilized on Long Short-Term Dialogue Planning [2.5567566997688043]
マルチターン対話における発話対間の相対的なターン距離を学習する新しい表現学習手法であるCurved Contrastive Learning (CCL)を紹介する。
得られたバイエンコーダモデルは、目標発話と対応する応答候補を潜在空間に投影することにより、ゼロショット方式でゴールに向かって応答ランキングモデルとして変換器を誘導することができる。
論文 参考訳(メタデータ) (2022-11-14T18:16:48Z) - Contextual information integration for stance detection via
cross-attention [59.662413798388485]
スタンス検出は、著者の目標に対する姿勢を特定することを扱う。
既存のスタンス検出モデルの多くは、関連するコンテキスト情報を考慮していないため、制限されている。
文脈情報をテキストとして統合する手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T15:04:29Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。