論文の概要: HypoCompass: Large-Language-Model-based Tutor for Hypothesis
Construction in Debugging for Novices
- arxiv url: http://arxiv.org/abs/2310.05292v1
- Date: Sun, 8 Oct 2023 21:39:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 04:15:46.650063
- Title: HypoCompass: Large-Language-Model-based Tutor for Hypothesis
Construction in Debugging for Novices
- Title(参考訳): hypoCompass: 初心者のデバッグにおける仮説構築のための大規模言語モデルベースのチュータ
- Authors: Qianou Ma, Hua Shen, Kenneth Koedinger, Tongshuang Wu
- Abstract要約: hypoは、学習原則によって導かれる豊富なトレーニング材料を生成するためにLLMに依存している。
10人の初心者がパフォーマンスを17%改善し、完了時間の13%を短縮した。
- 参考スコア(独自算出の注目度): 30.93874582387744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the prevalence of imperfect but capable LLMs in software development, it
becomes increasingly important for developers to cultivate debugging skills --
to form hypotheses about the source of error in both their own codes and codes
produced by their AI pair programmers. Despite the necessity, hypothesis
construction in debugging is rarely taught due to a lack of explicit
instruction. In this work, we explore whether LLMs can be used to train novices
on hypothesis construction, by designing a theoretically motivated,
LLM-augmented tutor -- HypoCompass. HypoCompass relies on LLMs for generating
rich training materials guided by learning principles and presents them in a
learning-by-teaching environment, where LLMs act as students who write bugs and
attempt to fix them, and human novices focus on debugging in the role of a
Teaching Assistant. Evaluations show that HypoCompass consistently generates
high-quality training materials, and brings significant learning gain: In a
pre-to-post test setup, 10 novices improved their performances by 17%, with a
reduced completion time of 13%.
- Abstract(参考訳): ソフトウェア開発において不完全だが有能なllmが普及するにつれて、開発者はデバッグスキルを育むことがますます重要になってきています。
必要にもかかわらず、明示的な命令が欠如しているため、デバッグにおける仮説構築が教えられることは滅多にない。
本研究では,理論的な動機づけのある llm-augmented tutor -- hypocompass を設計することにより,仮説構築の初心者を訓練するために llm が使用できるかどうかを検討する。
hypoCompassは、LLMがバグを書いて修正しようとする学生として行動し、人間の初心者が指導助手の役割でデバッグすることに集中する学習教育環境において、学習原則によって導かれるリッチなトレーニング教材を生成するためにLLMに依存している。
評価によると、HypoCompassは高品質なトレーニング材料を一貫して生成し、大きな学習効果をもたらす。 事前テストセットアップでは、10人の初心者がパフォーマンスを17%改善し、13%の完成時間が短縮された。
関連論文リスト
- BugSpotter: Automated Generation of Code Debugging Exercises [22.204802715829615]
本稿では,問題記述からバグコードを生成するツールであるBugSpotterを紹介する。
学生は失敗するテストケースを設計することでBugSpotterと対話する。
論文 参考訳(メタデータ) (2024-11-21T16:56:33Z) - A Comprehensive Survey of AI-Driven Advancements and Techniques in Automated Program Repair and Code Generation [0.0]
最近27の論文がレビューされ、2つのグループに分けられた。
最初のグループは、意味的エラーの特定を含む、バグの検出と修復のための新しいメソッドで構成されている。
2つ目のグループはコード生成に精通しており、プログラミングとタスク固有のモデルのために微調整された汎用LLMの概要を提供している。
また、識別子認識トレーニング、命令レベルでの微調整、セマンティックコード構造の導入など、コード生成を改善する方法も提示されている。
論文 参考訳(メタデータ) (2024-11-12T06:47:54Z) - Impeding LLM-assisted Cheating in Introductory Programming Assignments via Adversarial Perturbation [42.49889252988544]
LLM(Large Language Model)ベースのプログラミングアシスタントは、プロのソフトウェア開発者の生産性を向上させるだけでなく、初歩的なコンピュータプログラミングコースでの不正行為を容易にする。
本稿では,導入プログラミング問題の収集に広く使用されている5つのLCMのベースライン性能について検討し,その性能を劣化させるために,逆方向の摂動を調べるとともに,導入プログラミング課題の実際のコード生成を妨げる上で,そのような摂動の有効性を理解することを目的としたユーザスタディの結果について述べる。
論文 参考訳(メタデータ) (2024-10-12T01:01:00Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - LLMs-as-Instructors: Learning from Errors Toward Automating Model Improvement [93.38736019287224]
LLMs-as-Instructors"フレームワークは、より小さなターゲットモデルのトレーニングを自律的に強化する。
このフレームワークは、"Learning from Errors"理論にインスパイアされ、ターゲットモデル内の特定のエラーを注意深く分析するインストラクターLLMを使用している。
本フレームワークでは,適切なトレーニングデータに対する誤応答のみに焦点を当てた「エラーからの学習」と,比較学習を用いて誤りの深い理解を行う「コントラストによるエラーからの学習」という2つの戦略を実装している。
論文 参考訳(メタデータ) (2024-06-29T17:16:04Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Testing LLMs on Code Generation with Varying Levels of Prompt
Specificity [0.0]
大規模言語モデル (LLM) は、人間のようなテキスト生成と処理を模倣する非並列的な技術を示している。
自然言語のプロンプトを実行可能なコードに変換する可能性は、ソフトウェア開発プラクティスの大きな変化を約束します。
論文 参考訳(メタデータ) (2023-11-10T23:41:41Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。