論文の概要: Integrating Large Language Models in Software Engineering Education: A Pilot Study through GitHub Repositories Mining
- arxiv url: http://arxiv.org/abs/2509.04877v1
- Date: Fri, 05 Sep 2025 07:46:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.514676
- Title: Integrating Large Language Models in Software Engineering Education: A Pilot Study through GitHub Repositories Mining
- Title(参考訳): ソフトウェアエンジニアリング教育における大規模言語モデルの統合: GitHubリポジトリマイニングによるパイロットスタディ
- Authors: Maryam Khan, Muhammad Azeem Akbar, Jussi Kasurinen,
- Abstract要約: 大規模言語モデル(LLM)は、ソフトウェア工学(SE)教育においてますます採用されている。
本研究の目的は,LLMをSE教育に組み込むための検証フレームワークを開発することである。
- 参考スコア(独自算出の注目度): 1.043230260556633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context: Large Language Models (LLMs) such as ChatGPT are increasingly adopted in software engineering (SE) education, offering both opportunities and challenges. Their adoption requires systematic investigation to ensure responsible integration into curricula. Objective: This doctoral research aims to develop a validated framework for integrating LLMs into SE education through a multi-phase process, including taxonomies development, empirical investigation, and case studies. This paper presents the first empirical step. Method: We conducted a pilot repository mining study of 400 GitHub projects, analyzing README files and issues discussions to identify the presence of motivator and demotivator previously synthesized in our literature review [ 8] study. Results: Motivators such as engagement and motivation (227 hits), software engineering process understanding (133 hits), and programming assistance and debugging support (97 hits) were strongly represented. Demotivators, including plagiarism and IP concerns (385 hits), security, privacy and data integrity (87 hits), and over-reliance on AI in learning (39 hits), also appeared prominently. In contrast, demotivators such as challenges in evaluating learning outcomes and difficulty in curriculum redesign recorded no hits across the repositories. Conclusion: The study provides early empirical validation of motivators/demotivators taxonomies with respect to their themes, highlights research practice gaps, and lays the foundation for developing a comprehensive framework to guide the responsible adoption of LLMs in SE education.
- Abstract(参考訳): コンテキスト: ChatGPTのような大規模言語モデル(LLM)は、ソフトウェア工学(SE)教育に採用され、機会と課題の両方を提供している。
彼らの採用は、カリキュラムへの責任ある統合を保証するために体系的な調査を必要とする。
目的: 本研究の目的は, 分類学開発, 実証調査, ケーススタディを含む多段階プロセスを通じて, SE 教育に LLM を統合するための検証済みの枠組みを開発することである。
本稿では,最初の経験的段階を示す。
方法: 400のGitHubプロジェクトを対象とした試験的なリポジトリマイニング調査を行い,READMEファイルを解析し,文献レビュー [8]研究で以前に合成されたモチベータとデモティベータの存在を特定するための議論を提起した。
結果: エンゲージメントやモチベーション(227ヒット),ソフトウェアエンジニアリングプロセス理解(133ヒット),プログラミング支援とデバッグサポート(97ヒット)といったモチベータが強く表現された。
盗作やIPに関する懸念(385ヒット)、セキュリティ、プライバシ、データの整合性(87ヒット)、学習におけるAIへの過度な信頼(39ヒット)など、デモ参加者も顕著に現れた。
対照的に、学習成果評価の課題やカリキュラムの再設計の難しさといったデモティベーターは、レポジトリ全体でヒットを記録しなかった。
結論: 本研究は, モチベーター・デモチベーターの分類学のテーマに関する初期の実証的検証を提供し, 研究実践のギャップを浮き彫りにし, SE教育におけるLCMの責任ある採用を導くための包括的枠組みを構築するための基盤を築き上げている。
関連論文リスト
- Integrating LLMs in Software Engineering Education: Motivators, Demotivators, and a Roadmap Towards a Framework for Finnish Higher Education Institutes [1.2825802100149328]
ソフトウェア工学教育におけるLarge Language Models(LLM)の採用の増加は、機会と課題の両方を提示している。
LLMは、学習経験の向上、自動評価、パーソナライズド・チュータリングなどのメリットを提供する。
これらの統合は、学術的完全性、学生の過度な信頼、倫理的配慮に関する懸念も引き起こす。
論文 参考訳(メタデータ) (2025-03-28T08:41:43Z) - The Lazy Student's Dream: ChatGPT Passing an Engineering Course on Its Own [3.2334676138718677]
本稿では,Large Language Models (LLMs) の制御系コースを成功させる能力について包括的に検討する。
現実的な学生の利用パターンをシミュレートする「最小限の努力」プロトコルの下で,ChatGPTを用いてLCMの性能を評価する。
我々の分析は、制御システム工学における数学的定式化、コーディングの課題、理論的概念を扱う際のAIの強みと限界に関する定量的洞察を提供する。
論文 参考訳(メタデータ) (2025-02-23T18:47:14Z) - Survey on Vision-Language-Action Models [0.2636873872510828]
この研究は、オリジナルの研究を表現していないが、AIが文学レビューの自動化にどのように役立つかを強調している。
今後の研究は、AI支援文学レビューのための構造化されたフレームワークの開発に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-07T11:56:46Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - SUPER: Evaluating Agents on Setting Up and Executing Tasks from Research Repositories [55.161075901665946]
Superは、機械学習(ML)と自然言語処理(NLP)の研究リポジトリを扱う研究者が直面する現実的な課題を捉えることを目的としている。
本ベンチマークでは,注釈付きエキスパートソリューションを用いたエンドツーエンド問題45,特定の課題に焦点をあてたエキスパートソリューションから導いた152,大規模開発のための602の問題を自動生成する。
我々は、最先端のアプローチが、最良のモデル(GPT-4o)でこれらの問題を解決するのに苦労していることを示し、エンド・ツー・エンドの16.3%と46.1%のシナリオを解決した。
論文 参考訳(メタデータ) (2024-09-11T17:37:48Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。