論文の概要: Artificial Intelligence-Powered Assessment Framework for Skill-Oriented Engineering Lab Education
- arxiv url: http://arxiv.org/abs/2509.25258v1
- Date: Sat, 27 Sep 2025 21:29:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.210884
- Title: Artificial Intelligence-Powered Assessment Framework for Skill-Oriented Engineering Lab Education
- Title(参考訳): スキル指向エンジニアリングラボ教育のための人工知能を活用したアセスメントフレームワーク
- Authors: Vaishnavi Sharma, Rakesh Thakur, Shashwat Sharma, Kritika Panjanani,
- Abstract要約: コンピュータ科学における実践的な実験室教育は、しばしば、盗作、適切な実験記録の欠如、構造化されていない実験室の伝導、不十分な実行と評価といった課題に直面している。
私たちはAsseslyAIを導入し、オンラインラボアロケーション、学生毎のユニークなラボ問題、AIが推奨するビバ評価、ゲーミフィケーションシミュレータを通じてこれらの課題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Practical lab education in computer science often faces challenges such as plagiarism, lack of proper lab records, unstructured lab conduction, inadequate execution and assessment, limited practical learning, low student engagement, and absence of progress tracking for both students and faculties, resulting in graduates with insufficient hands-on skills. In this paper, we introduce AsseslyAI, which addresses these challenges through online lab allocation, a unique lab problem for each student, AI-proctored viva evaluations, and gamified simulators to enhance engagement and conceptual mastery. While existing platforms generate questions based on topics, our framework fine-tunes on a 10k+ question-answer dataset built from AI/ML lab questions to dynamically generate diverse, code-rich assessments. Validation metrics show high question-answer similarity, ensuring accurate answers and non-repetitive questions. By unifying dataset-driven question generation, adaptive difficulty, plagiarism resistance, and evaluation in a single pipeline, our framework advances beyond traditional automated grading tools and offers a scalable path to produce genuinely skilled graduates.
- Abstract(参考訳): コンピュータ科学における実践的な実験室教育は、しばしば、盗作主義、適切な実験記録の欠如、構造化されていない実験室の伝導、不十分な実行と評価、実践的学習の制限、学生のエンゲージメントの低下、学生と学部の進歩追跡の欠如といった課題に直面し、結果として、ハンズオンスキルが不足する。
本稿では,AsseslyAIを紹介する。AsseslyAIは,オンラインラボアロケーション,学生毎の独特な実験室問題,AIによるビバ評価,ゲーム化シミュレータによるエンゲージメントと概念習得の促進を通じて,これらの課題に対処する。
既存のプラットフォームはトピックに基づいて質問を生成するが、私たちのフレームワークはAI/MLラボの質問から構築された10k以上の質問回答データセットに基づいて、多様なコードリッチアセスメントを動的に生成する。
検証基準は、高い質問と回答の類似性を示し、正確な回答と非反復的な質問を確実にする。
データセット駆動の質問生成、適応的困難、盗用抵抗、評価を単一のパイプラインで統一することにより、我々のフレームワークは従来の自動グレーティングツールを超えて進歩し、真に熟練した卒業生を生み出すためのスケーラブルなパスを提供する。
関連論文リスト
- Assessing the Quality of AI-Generated Exams: A Large-Scale Field Study [18.104664166381877]
大規模言語モデル(LLM)は、従来の教育と学習の方法に挑戦する。
有望な応用の1つは、特定のコースの内容に合わせてカスタマイズされた試験の生成である。
論文 参考訳(メタデータ) (2025-08-09T01:20:53Z) - Synthesizing High-Quality Programming Tasks with LLM-based Expert and Student Agents [23.937130029936494]
PyTaskSynは、プログラミングタスクを最初に生成し、学生に与えられる特定の品質基準を満たすかどうかを決定する新しい合成技術である。
PyTaskSynはベースライン技術と比較してタスク品質を著しく改善し、検証パイプラインにおける各エージェントタイプの重要性を示す。
論文 参考訳(メタデータ) (2025-04-10T11:08:39Z) - Exploring LLM-based Student Simulation for Metacognitive Cultivation [33.346260553878984]
高品質なシミュレーション学生エージェントを自動生成・フィルタリングするパイプラインを提案する。
我々の研究は、パーソナライズされた学習と教育アセスメントにおける幅広い応用の道を開く。
論文 参考訳(メタデータ) (2025-02-17T11:12:47Z) - Could ChatGPT get an Engineering Degree? Evaluating Higher Education Vulnerability to AI Assistants [176.39275404745098]
我々は,2つのAIアシスタントであるGPT-3.5とGPT-4が適切な回答を得られるかどうかを評価する。
GPT-4は65.8%の質問を正解し、85.1%の質問に対して少なくとも1つの手順で正しい答えを出すことができる。
この結果から,AIの進歩を踏まえて,高等教育におけるプログラムレベルの評価設計の見直しが求められた。
論文 参考訳(メタデータ) (2024-08-07T12:11:49Z) - MMAU: A Holistic Benchmark of Agent Capabilities Across Diverse Domains [54.117238759317004]
大規模マルチタスクエージェント理解(MMAU)ベンチマークは、複雑な環境設定を必要としない包括的なオフラインタスクを特徴としている。
ツールユース、DAG(Directed Acyclic Graph)QA、データサイエンスと機械学習コーディング、コンテストレベルのプログラミング、数学の5分野にわたるモデルを評価する。
3K以上の異なるプロンプトを含む20の精巧に設計されたタスクにより、MMAUはLLMエージェントの強度と限界を評価するための包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-07-18T00:58:41Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。