論文の概要: WIP: Leveraging LLMs for Enforcing Design Principles in Student Code: Analysis of Prompting Strategies and RAG
- arxiv url: http://arxiv.org/abs/2508.11717v1
- Date: Thu, 14 Aug 2025 19:56:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.300052
- Title: WIP: Leveraging LLMs for Enforcing Design Principles in Student Code: Analysis of Prompting Strategies and RAG
- Title(参考訳): WIP:学生コードにおける設計原則強化のためのLLMの活用:プロンプト戦略とRAGの分析
- Authors: Dhruv Kolhatkar, Soubhagya Akkena, Edward F. Gehringer,
- Abstract要約: 本稿では,Large Language Models (LLM) を,コンピュータサイエンスとソフトウェア工学のコースで開発されたオープンソースプロジェクトのコードレビュープロセスに統合することを検討する。
焦点は、学生のコードを主要なオブジェクト指向設計原則に従うために評価する自動フィードバックツールの開発である。
- 参考スコア(独自算出の注目度): 0.7407754140732635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work-in-progress research-to-practice paper explores the integration of Large Language Models (LLMs) into the code-review process for open-source software projects developed in computer science and software engineering courses. The focus is on developing an automated feedback tool that evaluates student code for adherence to key object-oriented design principles, addressing the need for more effective and scalable methods to teach software design best practices. The innovative practice involves leveraging LLMs and Retrieval-Augmented Generation (RAG) to create an automated feedback system that assesses student code for principles like SOLID, DRY, and design patterns. It analyzes the effectiveness of various prompting strategies and the RAG integration. Preliminary findings show promising improvements in code quality. Future work will aim to improve model accuracy and expand support for additional design principles.
- Abstract(参考訳): このワーク・イン・プログレッシブな研究・実践論文は、コンピュータサイエンスとソフトウェア工学のコースで開発されたオープンソースプロジェクトのコードレビュープロセスへのLarge Language Models(LLM)の統合を探求している。
ソフトウェア設計のベストプラクティスを教えるための、より効率的でスケーラブルな方法の必要性に対処する。
この革新的なプラクティスは、LLMとRetrieval-Augmented Generation (RAG)を活用して、SOLID、DRY、デザインパターンといった原則の学生コードを評価する自動フィードバックシステムを構築することである。
様々なプロンプト戦略とRAG統合の有効性を分析する。
予備的な発見は、コード品質の有望な改善を示している。
今後の作業は、モデルの精度を改善し、さらなる設計原則のサポートを拡大することを目指している。
関連論文リスト
- Teaching Code Refactoring Using LLMs [0.7407754140732635]
大規模言語モデル(LLM)は、リアルタイムでコンテキスト対応のフィードバックを通じて、ソフトウェアエンジニアリングコースにおけるコードの教育を強化することができる。
リファクタリングはコード品質を改善するが、特に複雑な現実世界では教えることが難しい。
論文 参考訳(メタデータ) (2025-08-12T20:41:19Z) - MERA Code: A Unified Framework for Evaluating Code Generation Across Tasks [56.34018316319873]
我々は,最新のLLMをロシア語で評価するためのベンチマークであるMERA Codeを提案する。
このベンチマークには、8つのプログラミング言語にまたがる11の評価タスクが含まれている。
我々はオープンなLLMとフロンティアAPIモデルを評価し、非英語言語における実用的なコーディングタスクの観点からそれらの制限を分析した。
論文 参考訳(メタデータ) (2025-07-16T14:31:33Z) - Towards Effective Code-Integrated Reasoning [89.47213509714578]
モデルが必要に応じてコードを生成するコード統合推論について検討し、コードインタプリタを通じてそれを実行することによってフィードバックを統合する。
ツール強化強化学習は、学習力学における潜在的な不安定さに悩まされる可能性がある。
我々は、探索と安定性のバランスをとるための強化されたトレーニング戦略を開発し、推論性能を改善しながら、ツールの利用能力を徐々に構築する。
論文 参考訳(メタデータ) (2025-05-30T11:30:18Z) - Enhancing LLM Code Generation: A Systematic Evaluation of Multi-Agent Collaboration and Runtime Debugging for Improved Accuracy, Reliability, and Latency [0.0]
プログラミング活動の異なる構成や訓練パラダイムがコード生成の効率に与える影響について検討する。
私たちの発見は、堅牢なAI駆動型コーディングソリューションを求める組織に貴重な洞察を与えます。
論文 参考訳(メタデータ) (2025-05-04T14:44:27Z) - ToolRL: Reward is All Tool Learning Needs [54.16305891389931]
大規模言語モデル(LLM)は、ツールの使用能力を得るために、しばしば監督された微調整(SFT)を行う。
近年の強化学習(RL)の進歩は、有望な推論と一般化能力を示している。
本稿では、RLパラダイムにおけるツール選択とアプリケーションタスクに対する報酬設計に関する最初の総合的研究について述べる。
論文 参考訳(メタデータ) (2025-04-16T21:45:32Z) - EduPlanner: LLM-Based Multi-Agent Systems for Customized and Intelligent Instructional Design [31.595008625025134]
大規模言語モデル(LLM)は、人工知能(AGI)時代において、かなり高度なスマート教育を行っている。
EduPlannerはLLMベースのマルチエージェントシステムであり、評価エージェント、エージェント、質問アナリストから構成される。
EduPlannerは、カリキュラムと学習活動のためのカスタマイズされたインテリジェントな教育設計を生成する。
論文 参考訳(メタデータ) (2025-04-07T17:49:12Z) - SENAI: Towards Software Engineering Native Generative Artificial Intelligence [3.915435754274075]
本稿では,ソフトウェア工学の知識を大規模言語モデルに統合することについて議論する。
本研究の目的は,LLMが単なる機能的精度を超えて生成タスクを実行できる新しい方向を提案することである。
ソフトウェアエンジニアリング ネイティブな生成モデルは、現在のモデルに存在する欠点を克服するだけでなく、現実世界のソフトウェアエンジニアリングを扱うことができる次世代の生成モデルへの道を開くでしょう。
論文 参考訳(メタデータ) (2025-03-19T15:02:07Z) - Code to Think, Think to Code: A Survey on Code-Enhanced Reasoning and Reasoning-Driven Code Intelligence in LLMs [53.00384299879513]
大規模言語モデル(LLM)では、コードと推論が互いに強化される。
コードは検証可能な実行パスを提供し、論理的な分解を強制し、実行時の検証を可能にする。
我々は,このシナジーを強化するために,重要な課題を特定し,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2025-02-26T18:55:42Z) - AI-powered Code Review with LLMs: Early Results [10.37036924997437]
本稿では,Large Language Model (LLM) ベースのモデルを用いて,ソフトウェアの品質と効率を改善する新しい手法を提案する。
提案するLLMベースのAIエージェントモデルは,大規模コードリポジトリ上でトレーニングされている。
コードの臭いを検出し、潜在的なバグを特定し、改善の提案を提供し、コードを最適化することを目的としている。
論文 参考訳(メタデータ) (2024-04-29T08:27:50Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。