論文の概要: Explainability and Certification of AI-Generated Educational Assessments
- arxiv url: http://arxiv.org/abs/2604.09622v1
- Date: Wed, 18 Mar 2026 11:33:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-19 19:09:11.567442
- Title: Explainability and Certification of AI-Generated Educational Assessments
- Title(参考訳): AIによる教育評価の説明可能性と認定
- Authors: Antoun Yaacoub, Zainab Assaghir, Anuradha Kar,
- Abstract要約: この章では、AI生成アセスメント項目の説明可能性と認定のための包括的なフレームワークを提案する。
保証、アライメント予測、レビューアアクション、倫理指標をキャプチャするために、構造化された認証メタデータスキーマが導入される。
500のAI生成コンピュータサイエンス問題に関する概念実証研究は、このフレームワークの実現可能性を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid adoption of generative artificial intelligence (AI) in educational assessment has created new opportunities for scalable item creation, personalized feedback, and efficient formative evaluation. However, despite advances in taxonomy alignment and automated question generation, the absence of transparent, explainable, and certifiable mechanisms limits institutional and accreditation-level acceptance. This chapter proposes a comprehensive framework for explainability and certification of AI-generated assessment items, combining self-rationalization, attribution-based analysis, and post-hoc verification to produce interpretable cognitive-alignment evidence grounded in Bloom's and SOLO taxonomies. A structured certification metadata schema is introduced to capture provenance, alignment predictions, reviewer actions, and ethical indicators, enabling audit-ready documentation consistent with emerging governance requirements. A traffic-light certification workflow operationalizes these signals by distinguishing auto-certifiable items from those requiring human review or rejection. A proof-of-concept study on 500 AI-generated computer science questions demonstrates the framework's feasibility, showing improved transparency, reduced instructor workload, and enhanced auditability. The chapter concludes by outlining ethical implications, policy considerations, and directions for future research, positioning explainability and certification as essential components of trustworthy, accreditation-ready AI assessment systems.
- Abstract(参考訳): 教育評価における生成人工知能(AI)の急速な採用は、スケーラブルなアイテム作成、パーソナライズされたフィードバック、効率的なフォーマット評価の新しい機会を生み出した。
しかし、分類のアライメントと自動質問生成の進歩にもかかわらず、透明で説明可能な、証明可能なメカニズムの欠如は、制度的および認定レベルの受容を制限する。
本章では,Bloom 分類と SOLO 分類に基づく解釈可能な認知アライメントエビデンスを生成するために,自己合理化,帰属分析,およびポストホック検証を組み合わせた,AI 生成アセスメント項目の説明可能性と認定のための包括的枠組みを提案する。
構造化された認証メタデータスキーマを導入して、証明、アライメント予測、レビューアアクション、倫理指標をキャプチャし、新たなガバナンス要件と整合した監査対応のドキュメントを可能にする。
信号信号認証ワークフローは、自動確認可能なアイテムと人間のレビューや拒絶を必要とするアイテムを区別することにより、これらの信号を運用する。
500のAI生成コンピュータサイエンス質問に対する概念実証研究は、このフレームワークの実現可能性を示し、透明性の向上、インストラクターの作業負荷の削減、監査性の向上を示している。
この章は、倫理的含意、政策的考察、将来の研究の方向性を概説し、説明可能性と認定を信頼できる、認定可能なAIアセスメントシステムの不可欠な構成要素として位置づけている。
関連論文リスト
- AI Deployment Authorisation: A Global Standard for Machine-Readable Governance of High-Risk Artificial Intelligence [0.0]
本稿では,AIシステムを評価する機械可読制御フレームワークであるAI Deployment Authorisation Score(ADAS)を紹介する。
ADASは暗号的に検証可能なデプロイメント証明書を生成しており、規制当局、保険会社、インフラオペレーターが運用するライセンスとして使用することができる。
論文 参考訳(メタデータ) (2026-01-11T18:14:20Z) - A Conceptual Framework for AI Capability Evaluations [0.0]
本稿では,AI能力評価を解析するための概念的枠組みを提案する。
広く使われている手法や用語の分析を体系化する構造化された記述的アプローチを提供する。
また、研究者は方法論的な弱点を特定し、評価を設計する実践者を支援し、政策立案者に複雑な評価の風景を精査し、比較し、ナビゲートするツールを提供する。
論文 参考訳(メタデータ) (2025-06-23T00:19:27Z) - Towards Reliable Forgetting: A Survey on Machine Unlearning Verification [26.88376128769619]
本稿では,機械学習の検証手法に関する最初の構造化された調査について述べる。
本稿では,現在の手法を行動検証とパラメトリック検証の2つの主要なカテゴリに分類する分類法を提案する。
基礎となる仮定、強度、限界を調べ、実践的なデプロイメントにおける潜在的な脆弱性を特定します。
論文 参考訳(メタデータ) (2025-06-18T03:33:59Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - A Unified Framework for Evaluating the Effectiveness and Enhancing the Transparency of Explainable AI Methods in Real-World Applications [2.0681376988193843]
本研究では,XAIの単一評価フレームワークについて紹介する。
数字とユーザフィードバックの両方を使って、説明が正しいか、理解しやすく、公平で、完全で、信頼できるかをチェックする。
我々は、医療、金融、農業、自動運転システムにおけるケーススタディを通じて、この枠組みの価値を示す。
論文 参考訳(メタデータ) (2024-12-05T05:30:10Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - Modelling Assessment Rubrics through Bayesian Networks: a Pragmatic Approach [40.06500618820166]
本稿では,学習者モデルを直接評価ルーリックから導出する手法を提案する。
本稿では,コンピュータ思考のスキルをテストするために開発された活動の人的評価を自動化するために,この手法を適用する方法について述べる。
論文 参考訳(メタデータ) (2022-09-07T10:09:12Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。