論文の概要: Amplifiers or Equalizers? A Longitudinal Study of LLM Evolution in Software Engineering Project-Based Learning
- arxiv url: http://arxiv.org/abs/2511.23157v1
- Date: Fri, 28 Nov 2025 13:05:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.900109
- Title: Amplifiers or Equalizers? A Longitudinal Study of LLM Evolution in Software Engineering Project-Based Learning
- Title(参考訳): 増幅器と等化器 : ソフトウェア工学プロジェクトに基づく学習におけるLLM進化の縦断的研究
- Authors: Hana Kataoka, Jialong Li, Yutaka Matsuno,
- Abstract要約: 本稿では,2024(早期無料LLM,$n$=48)と2025(最新の有料LLM,$n$=46)を比較した2年間の縦断的研究を紹介する。
この結果から,LLMは「等化剤」として機能し,プログラミング能力に乏しい学生でも平均的な性能向上を図っていることが示唆された。
- 参考スコア(独自算出の注目度): 1.1035164071581713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As LLMs reshape software development, integrating LLM-augmented practices into SE education has become imperative. While existing studies explore LLMs' educational use in introductory programming or isolated SE tasks, their impact in more open-ended Project-Based Learning (PBL) remains unexplored. This paper introduces a two-year longitudinal study comparing a 2024 (using early free LLMs, $n$=48) and 2025 (using the latest paid LLMs, $n$=46) cohort. Our findings suggest the latest powerful LLMs' dual role: they act as "equalizers," boosting average performance even for programming-weak students, providing opportunities for more authentic SE practices; yet also as "amplifiers," dramatically widening absolute performance gaps, creating new pedagogical challenges for addressing educational inequities.
- Abstract(参考訳): LLMがソフトウェア開発を再構築するにつれ、LLMが強化したプラクティスをSE教育に統合することが不可欠になっている。
既存の研究では、導入プログラミングや孤立したSEタスクにおけるLLMの教育的利用について検討されているが、よりオープンなプロジェクトベースラーニング(PBL)への影響は未解明のままである。
本稿では,2024(早期無料LLM,$n$=48)と2025(最新の有料LLM,$n$=46)を比較した2年間の縦断的研究を紹介する。
プログラム不足の学生でも平均的なパフォーマンスを向上し、より真正なSEプラクティスの機会を提供すると同時に、絶対的なパフォーマンスギャップを劇的に拡大し、教育的不平等に対処するための新たな教育的課題を生み出します。
関連論文リスト
- LLM4VV: Evaluating Cutting-Edge LLMs for Generation and Evaluation of Directive-Based Parallel Programming Model Compiler Tests [7.6818904666624395]
本稿では,コンパイラテストの生成にLLMを用いたデュアルLLMシステムと実験について述べる。
LLMは、品質の高いコンパイラテストを生成し、それらを自動的に検証する有望な可能性を持っていることは明らかである。
論文 参考訳(メタデータ) (2025-07-29T02:34:28Z) - Whose ChatGPT? Unveiling Real-World Educational Inequalities Introduced by Large Language Models [3.005864877840858]
ChatGPTや他の類似のツールは、学習経験と成果を改善するために、大きな言語モデル(LLM)の可能性について、大きな興奮と実験的努力を喚起しました。
しかし、LLMが教育的価値に与える影響を体系的に調査する研究はほとんどない。
我々は2021年から2024年までの2391のコースで16,791人の大学生から1,140,328人の学術論文を米国内の公立の少数派機関で分析した。
言語学的に有利な学生と不利な学生の書き込み品質のギャップが狭まりつつあり, 学生全体の書き込み品質が徐々に向上していることがわかった。
論文 参考訳(メタデータ) (2024-10-29T17:35:46Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Large Language Models: A Survey [66.39828929831017]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。