論文の概要: NoteEx: Interactive Visual Context Manipulation for LLM-Assisted Exploratory Data Analysis in Computational Notebooks
- arxiv url: http://arxiv.org/abs/2511.07223v1
- Date: Mon, 10 Nov 2025 15:44:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.338342
- Title: NoteEx: Interactive Visual Context Manipulation for LLM-Assisted Exploratory Data Analysis in Computational Notebooks
- Title(参考訳): 注:計算ノートにおけるLCM支援探索データ解析のためのインタラクティブビジュアルコンテキスト操作
- Authors: Mohammad Hasan Payandeh, Lin-Ping Yuan, Jian Zhao,
- Abstract要約: NoteExはJupyterLab拡張で、EDAワークフローのセマンティックビジュアライゼーションを提供する。
これにより、アナリストはメンタルモデルを外部化し、分析依存関係を指定し、タスク関連コンテキストのインタラクティブな選択を可能にする。
- 参考スコア(独自算出の注目度): 8.839949178567583
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computational notebooks have become popular for Exploratory Data Analysis (EDA), augmented by LLM-based code generation and result interpretation. Effective LLM assistance hinges on selecting informative context -- the minimal set of cells whose code, data, or outputs suffice to answer a prompt. As notebooks grow long and messy, users can lose track of the mental model of their analysis. They thus fail to curate appropriate contexts for LLM tasks, causing frustration and tedious prompt engineering. We conducted a formative study (n=6) that surfaced challenges in LLM context selection and mental model maintenance. Therefore, we introduce NoteEx, a JupyterLab extension that provides a semantic visualization of the EDA workflow, allowing analysts to externalize their mental model, specify analysis dependencies, and enable interactive selection of task-relevant contexts for LLMs. A user study (n=12) against a baseline shows that NoteEx improved mental model retention and context selection, leading to more accurate and relevant LLM responses.
- Abstract(参考訳): 計算ノートは、LLMベースのコード生成と結果解釈によって強化されたExploratory Data Analysis (EDA) で人気となっている。
効果的なLCMアシストは、情報的コンテキストを選択することに集中する -- コード、データ、出力がプロンプトに答えるために十分である、最小限のセルセットである。
ノートが長くて散らかるにつれて、ユーザーは分析の精神モデルを見失うことができる。
そのため、LLMタスクの適切なコンテキストをキュレートすることができず、フラストレーションと面倒なプロンプトエンジニアリングを引き起こした。
LLMの文脈選択とメンタルモデル維持における課題を明らかにするための形式的研究(n=6)を行った。
したがって、JupyterLabの拡張であるNoteExは、EDAワークフローのセマンティックビジュアライゼーションを提供し、アナリストがメンタルモデルを外部化し、分析依存を指定し、LCMのタスク関連コンテキストのインタラクティブな選択を可能にする。
ベースラインに対するユーザスタディ(n=12)は、NoteExがメンタルモデル保持とコンテキスト選択を改善し、より正確で関連するLCM応答をもたらすことを示している。
関連論文リスト
- Just Put a Human in the Loop? Investigating LLM-Assisted Annotation for Subjective Tasks [18.695435335031355]
複数のもっともらしい回答を持つ主観的アノテーションタスクでは、LCM出力のレビューはラベルの分布を変えることができる。
410種類のアノテーションと7000以上のアノテーションを用いた事前登録実験を行った。
その結果, LLM によるアノテーション提案をクラウドワーカーに提示することは, より迅速ではなく, 自己報告によるタスクへの信頼感を向上させることができた。
論文 参考訳(メタデータ) (2025-07-21T17:29:21Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Large Language Models for Data Annotation and Synthesis: A Survey [49.8318827245266]
本調査は,データアノテーションと合成のための大規模言語モデルの有用性に焦点を当てる。
LLMがアノテートできるデータタイプの詳細な分類、LLM生成アノテーションを利用したモデルの学習戦略のレビュー、データアノテーションと合成にLLMを使用する際の主な課題と制限に関する詳細な議論を含む。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - LLM-in-the-loop: Leveraging Large Language Model for Thematic Analysis [18.775126929754833]
Thematic Analysis (TA)は、多くの分野や分野における定性的データを解析するために広く使われている。
ヒューマンコーダはデータの解釈とコーディングを複数のイテレーションで開発し、より深くする。
In-context Learning (ICL) を用いたTAを実現するための人間-LLM協調フレームワーク(LLM-in-the-loop)を提案する。
論文 参考訳(メタデータ) (2023-10-23T17:05:59Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。