論文の概要: SPROUT: Authoring Programming Tutorials with Interactive Visualization
of Large Language Model Generation Process
- arxiv url: http://arxiv.org/abs/2312.01801v1
- Date: Mon, 4 Dec 2023 10:46:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:27:50.048054
- Title: SPROUT: Authoring Programming Tutorials with Interactive Visualization
of Large Language Model Generation Process
- Title(参考訳): sprout: 大規模言語モデル生成プロセスのインタラクティブな可視化によるオーサリングプログラミングチュートリアル
- Authors: Yihan Liu, Zhen Wen, Luoxuan Weng, Ollie Woodman, Yi Yang, and Wei
Chen
- Abstract要約: 大規模言語モデル(LLM)の急速な開発は、プログラミングチュートリアルの作成効率に革命をもたらした。
プログラミングチュートリアル作成タスクを実行可能なステップに分解する,新しいアプローチを導入する。
次に,SPROUTを提案する。SPROUTは,プログラミングチュートリアル作成プロセスのより深い制御と理解を可能にする,インタラクティブな可視化機能を備えたオーサリングツールである。
- 参考スコア(独自算出の注目度): 19.885485760758783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development of large language models (LLMs), such as ChatGPT, has
revolutionized the efficiency of creating programming tutorials. LLMs can be
instructed with text prompts to generate comprehensive text descriptions of
code snippets. However, the lack of transparency in the end-to-end generation
process has hindered the understanding of model behavior and limited user
control over the generated results. To tackle this challenge, we introduce a
novel approach that breaks down the programming tutorial creation task into
actionable steps. By employing the tree-of-thought method, LLMs engage in an
exploratory process to generate diverse and faithful programming tutorials. We
then present SPROUT, an authoring tool equipped with a series of interactive
visualizations that empower users to have greater control and understanding of
the programming tutorial creation process. A formal user study demonstrated the
effectiveness of SPROUT, showing that our tool assists users to actively
participate in the programming tutorial creation process, leading to more
reliable and customizable results. By providing users with greater control and
understanding, SPROUT enhances the user experience and improves the overall
quality of programming tutorial. A free copy of this paper and all supplemental
materials are available at
https://osf.io/uez2t/?view_only=5102e958802341daa414707646428f86.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)の急速な開発は、プログラミングチュートリアルの作成効率に革命をもたらした。
LLMはテキストプロンプトを使って、コードスニペットの包括的なテキスト記述を生成することができる。
しかし、エンドツーエンド生成プロセスにおける透明性の欠如は、モデル動作の理解と、生成された結果に対するユーザ制御の制限を妨げている。
この課題に取り組むために,プログラミングチュートリアル作成タスクを実行可能なステップに分解する,新たなアプローチを導入する。
ツリー・オブ・シント法を用いることで、LLMは多様な忠実なプログラミングチュートリアルを生成する探索的なプロセスに従事する。
次に,SPROUTを提案する。SPROUTは,プログラミングチュートリアル作成プロセスのより深い制御と理解を可能にする,インタラクティブな可視化機能を備えたオーサリングツールである。
正式なユーザスタディでは,SPROUTの有効性を実証し,プログラムチュートリアル作成プロセスに積極的に参加する上で,より信頼性が高くカスタマイズ可能な結果が得られることを示した。
ユーザによるコントロールと理解を深めることで,sproutはユーザエクスペリエンスの向上と,プログラミングチュートリアルの全体的な品質向上を実現している。
この論文の無料コピーと追加資料はhttps://osf.io/uez2t/?
view_only=5102e958802341daa414707646428f86。
関連論文リスト
- LLMCheckup: Conversational Examination of Large Language Models via
Interpretability Tools [20.536681813020824]
ユーザがその振る舞いについて,最先端の大規模言語モデル(LLM)とチャットできる,アクセスしやすいツールを提案する。
我々はLSMが単独ですべての説明を生成し、微調整をせずに意図認識の処理を行えるようにした。
LLMCheckupは、XAIのさまざまなレベルの専門知識を持つ個人を対象に、システムで利用可能なオペレーションのチュートリアルを提供する。
論文 参考訳(メタデータ) (2024-01-23T09:11:07Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - CLOVA: A Closed-Loop Visual Assistant with Tool Usage and Update [73.08470271514605]
この制限に対処するクローズドループビジュアルアシスタントであるCLOVAを提案する。
推論中、LLMはプログラムを生成し、与えられたタスクを達成するための対応するツールを実行する。
リフレクションフェーズではマルチモーダルなグローバルローカルリフレクション方式を導入し、どのツールを更新する必要があるかを分析する。
学習フェーズは3つのフレキシブルな方法でトレーニングデータをリアルタイムで収集し、ツールを更新するための新しいプロンプトチューニングスキームを導入する。
論文 参考訳(メタデータ) (2023-12-18T03:34:07Z) - Next-Step Hint Generation for Introductory Programming Using Large
Language Models [0.8002196839441036]
大きな言語モデルは、質問に答えたり、エッセイを書いたり、プログラミングの練習を解くといったスキルを持っている。
本研究は,LLMが学生に次のステップの自動ヒントを提供することで,プログラミング教育にどう貢献できるかを考察する。
論文 参考訳(メタデータ) (2023-12-03T17:51:07Z) - From Language Modeling to Instruction Following: Understanding the
Behavior Shift in LLMs after Instruction Tuning [66.82960120533544]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較して、命令チューニングの影響について研究する。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - Promptly: Using Prompt Problems to Teach Learners How to Effectively
Utilize AI Code Generators [5.458849730200646]
本稿では,「プロンプト問題」として知られる新しい教育概念を紹介する。
プロンプト問題(英: Prompt Problem)は、学生が自然言語のプロンプトを作成し、LLMが特定の問題に対して正しいコードを生成するよう促す問題である。
Promptlyを初年度のPythonプログラミングコースに導入したフィールドスタディから経験的知見を報告する。
論文 参考訳(メタデータ) (2023-07-31T01:46:42Z) - LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning [64.55001982176226]
LIBEROは、ロボット操作のための生涯学習の新しいベンチマークである。
宣言的知識、手続き的知識、あるいは両者の混在を効率的に伝達する方法に焦点を当てる。
我々は、無限に多くのタスクを生成できる拡張可能な手続き生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-06-05T23:32:26Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning
of Large Language Models [78.65241926912663]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z) - Large Language Models are Few-Shot Summarizers: Multi-Intent Comment
Generation via In-Context Learning [34.006227676170504]
本研究では,大規模言語モデル(LLM)を用いて,開発者の多様な意図を満たすコメントを生成することの実現可能性について検討する。
2つの大規模なデータセットの実験は、私たちの洞察の理論的根拠を示しています。
論文 参考訳(メタデータ) (2023-04-22T12:26:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。