論文の概要: Navigating the New Landscape: A Conceptual Model for Project-Based Assessment (PBA) in the Age of GenAI
- arxiv url: http://arxiv.org/abs/2508.11709v1
- Date: Thu, 14 Aug 2025 05:22:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.289849
- Title: Navigating the New Landscape: A Conceptual Model for Project-Based Assessment (PBA) in the Age of GenAI
- Title(参考訳): 新しい景観をナビゲートする:GenAI時代のプロジェクトベースアセスメント(PBA)の概念モデル
- Authors: Rajan Kadel, Samar Shailendra, Urvashi Rahul Saxena,
- Abstract要約: 本稿では,PBL(Project-Based Learning)の再検討や,プロセス指向評価を優先するキャップストーンプロジェクトについて論じる。
このモデルは、プロジェクトライフサイクル中の学習プロセスのオブザーバとして、監督者による(GenAIの支援による)パーソナライズされたフィードバックの使用も強調している。
- 参考スコア(独自算出の注目度): 0.032771631221674334
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid integration of Generative Artificial Intelligence (GenAI) into higher education presents both opportunities and challenges for assessment design, particularly within Project-Based Assessment (PBA) contexts. Traditional assessment methods often emphasise the final product in the PBA, which can now be significantly influenced or created by GenAI tools, raising concerns regarding product authenticity, academic integrity, and learning validation. This paper advocates for a reimagined assessment model for Project-Based Learning (PBL) or a capstone project that prioritises process-oriented evaluation, multi-modal and multifaceted assessment design, and ethical engagement with GenAI to enable higher-order thinking. The model also emphasises the use of (GenAI-assisted) personalised feedback by a supervisor as an observance of the learning process during the project lifecycle. A use case scenario is provided to illustrate the application of the model in a capstone project setting. The paper concludes with recommendations for educators and curriculum designers to ensure that assessment practices remain robust, learner-centric, and integrity-driven in the evolving landscape of GenAI.
- Abstract(参考訳): ジェネレーティブ人工知能(GenAI)の高等教育への迅速な統合は、特にプロジェクトベースアセスメント(PBA)の文脈において、アセスメント設計の機会と課題の両方を提示する。
従来のアセスメント手法では、PBAの最終製品に重点を置いており、GenAIツールに大きく影響されたり、作成されたりすることができるようになり、製品の信頼性、学術的完全性、学習の検証に関する懸念が高まっている。
本稿では,プロジェクトベースラーニング(PBL)や,プロセス指向評価,マルチモーダル・マルチフェイスアセスメント設計,高次思考を実現するためのGenAIとの倫理的関与を優先するキャップストーンプロジェクトに対する再考的アセスメントモデルを提案する。
このモデルは、プロジェクトライフサイクル中の学習プロセスのオブザーバとして、監督者による(GenAIの支援による)パーソナライズされたフィードバックの使用も強調している。
キャプストーン・プロジェクト・セッティングにおけるモデルの応用を説明するユースケースシナリオが提供される。
本稿は、GenAIの進化する展望の中で、評価実践が堅牢で、学習者中心で、整合性を重視していることを保証するために、教育者やカリキュラムデザイナーに推奨するものである。
関連論文リスト
- Encouraging Students' Responsible Use of GenAI in Software Engineering Education: A Causal Model and Two Institutional Applications [1.1511012020557325]
ChatGPTやGitHub CopilotといったジェネレーティブAI(GenAI)ツールは、教育において広く普及している。
コースワークから学ぶよりも、学生がそれを完成させるために使うことを懸念する声が上がっている。
本稿では、ソフトウェア工学教育におけるGenAI利用に責任を持つ教育者を支援するために、因果モデルを提案し、実証的に適用する。
論文 参考訳(メタデータ) (2025-05-31T19:27:40Z) - The AI Assessment Scale Revisited: A Framework for Educational Assessment [0.0]
ジェネレーティブ・人工知能(GenAI)の最近の進歩は、教育において大きな不確実性を生み出している。
我々は、2つの基本的な目的を持ったフレームワークであるAIAS(AI Assessment Scale)の更新版を提示する。
論文 参考訳(メタデータ) (2024-12-12T07:44:52Z) - Dimensions of Generative AI Evaluation Design [51.541816010127256]
我々は、GenAI評価設計に関わる重要な選択を捉えるための一般的な次元のセットを提案する。
これらの次元には、評価設定、タスクタイプ、入力ソース、インタラクションスタイル、期間、メトリックタイプ、スコアリング方法が含まれる。
論文 参考訳(メタデータ) (2024-11-19T18:25:30Z) - StructEval: Deepen and Broaden Large Language Model Assessment via Structured Evaluation [46.59416831869014]
本稿では,StructEvalと呼ばれる新しい評価フレームワークを提案する。
原子テストの目的から始めて、StructEvalは、複数の認知レベルと批判的概念にまたがって構造化された評価を行うことによって、評価をさらに深め、拡張する。
広く使用されている3つのベンチマークの実験は、StructEvalがデータ汚染のリスクに抵抗する信頼性の高いツールであることを示している。
論文 参考訳(メタデータ) (2024-08-06T16:28:30Z) - Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - Crafting Tomorrow's Evaluations: Assessment Design Strategies in the Era of Generative AI [0.02638878351659022]
GenAIは教育に大きな影響を与え、評価設計と評価方法論を著しく破壊してきた。
主に、学術的完全性、信頼性、アクセスの公平性、評価評価方法論、フィードバックを中心に、いくつかの懸念がある。
本稿では、評価設計と評価に対処する必要がある課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-03T01:28:21Z) - FoundaBench: Evaluating Chinese Fundamental Knowledge Capabilities of Large Language Models [64.11333762954283]
本稿では,中国のLLMの基本知識能力を厳格に評価するための先駆的ベンチマークであるFoundaBenchを紹介する。
本稿では、従来の評価手法とCircularEvalプロトコルの両方を用いて、モデル応答の潜在的なバイアスを軽減するため、FoundaBenchを用いた12の最先端LCMの広範な評価を行う。
以上の結果から,中国のコーパスで事前学習したモデルの性能が向上し,モデル推論とメモリリコール能力の相違が明らかとなった。
論文 参考訳(メタデータ) (2024-04-29T01:49:07Z) - Tailoring Education with GenAI: A New Horizon in Lesson Planning [0.21427777919040414]
本研究では、教育者のためのデジタルアシスタントとして設計されたGenAIツールを導入し、カスタマイズされた授業プランの作成を可能にする。
このツールは'interactive mega-prompt'と呼ばれる革新的な機能を利用している。
ツールの有効性を評価するため,定量的(時間節約率の%)と質的(ユーザ満足度)の両方を取り入れた総合的な方法論を実装した。
論文 参考訳(メタデータ) (2024-02-12T17:30:05Z) - GenLens: A Systematic Evaluation of Visual GenAI Model Outputs [33.93591473459988]
GenLensは、GenAIモデル出力の体系的評価のために設計されたビジュアル分析インタフェースである。
モデル開発者によるユーザ調査によると、GenLensは、高い満足度で証明されたワークフローを効果的に強化する。
論文 参考訳(メタデータ) (2024-02-06T04:41:06Z) - Modelling Assessment Rubrics through Bayesian Networks: a Pragmatic Approach [40.06500618820166]
本稿では,学習者モデルを直接評価ルーリックから導出する手法を提案する。
本稿では,コンピュータ思考のスキルをテストするために開発された活動の人的評価を自動化するために,この手法を適用する方法について述べる。
論文 参考訳(メタデータ) (2022-09-07T10:09:12Z) - Image Quality Assessment in the Modern Age [53.19271326110551]
本チュートリアルは、画像品質評価(IQA)の基礎的理論、方法論、現状の進歩を聴衆に提供する。
まず,視覚刺激を適切に選択する方法に着目し,主観的品質評価手法を再考する。
手書きのエンジニアリングと(深い)学習ベースの手法の両方をカバーします。
論文 参考訳(メタデータ) (2021-10-19T02:38:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。