論文の概要: The Impact of AI on Educational Assessment: A Framework for Constructive Alignment
- arxiv url: http://arxiv.org/abs/2506.23815v1
- Date: Mon, 30 Jun 2025 13:02:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.064501
- Title: The Impact of AI on Educational Assessment: A Framework for Constructive Alignment
- Title(参考訳): 教育アセスメントにおけるAIの効果: 構成的アライメントのためのフレームワーク
- Authors: Patrick Stokkink,
- Abstract要約: 我々は、AIが異なるブルームレベルの学習目標に異なる方法で影響を及ぼすと主張している。
大学や学部レベルでの構造的ガイドラインを提案し,職員間の整合性を育成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The influence of Artificial Intelligence (AI), and specifically Large Language Models (LLM), on education is continuously increasing. These models are frequently used by students, giving rise to the question whether current forms of assessment are still a valid way to evaluate student performance and comprehension. The theoretical framework developed in this paper is grounded in Constructive Alignment (CA) theory and Bloom's taxonomy for defining learning objectives. We argue that AI influences learning objectives of different Bloom levels in a different way, and assessment has to be adopted accordingly. Furthermore, in line with Bloom's vision, formative and summative assessment should be aligned on whether the use of AI is permitted or not. Although lecturers tend to agree that education and assessment need to be adapted to the presence of AI, a strong bias exists on the extent to which lecturers want to allow for AI in assessment. This bias is caused by a lecturer's familiarity with AI and specifically whether they use it themselves. To avoid this bias, we propose structured guidelines on a university or faculty level, to foster alignment among the staff. Besides that, we argue that teaching staff should be trained on the capabilities and limitations of AI tools. In this way, they are better able to adapt their assessment methods.
- Abstract(参考訳): 人工知能(AI)、特にLarge Language Models(LLM)が教育に与える影響は、継続的に増加している。
これらのモデルはしばしば学生によって使われており、現在の評価形式が学生のパフォーマンスと理解を評価する有効な方法であるかどうかという疑問が持ち上がっている。
本論文で開発された理論的枠組みは,学習目的を定義するための構成的アライメント(CA)理論とブルームの分類に基礎を置いている。
我々は、AIが異なるブルームレベルの学習目標に異なる方法で影響を及ぼし、それに応じて評価を適用しなければならないと主張している。
さらに、ブルームのビジョンに従って、フォーマティブで要約的な評価は、AIの使用が許可されているかどうかに応じて調整されるべきである。
講師は、教育とアセスメントがAIの存在に適応する必要があることに同意する傾向にあるが、講師がアセスメントにおいてAIを許容する程度には強いバイアスが存在する。
このバイアスは、講師がAIに精通していること、特に自分たちで使用しているかどうかによって引き起こされる。
このバイアスを回避するため,大学や学部レベルの構造的ガイドラインを提案し,スタッフ間の整合性を育成する。
さらに、AIツールの能力と限界について教員を訓練すべきである、と論じる。
このようにして、評価手法を適応させることができるのです。
関連論文リスト
- Distinguishing Fact from Fiction: Student Traits, Attitudes, and AI Hallucination Detection in Business School Assessment [2.3359837623080613]
本研究では,英国ビジネススクールにおいて,学術的スキル,認知的特徴,AI懐疑主義が,事実的不正確なAI生成反応(幻覚)を検出する能力にどのように影響するかを検討する。
幻覚の同定に成功したのは20%に過ぎず、強力な学業成績、解釈スキル思考、習熟度、AI懐疑主義が重要な予測因子として現れている。
論文 参考訳(メタデータ) (2025-05-28T18:39:57Z) - A Human-Centric Approach to Explainable AI for Personalized Education [1.0878040851638]
この論文は、eXplainable AI(XAI)研究の最前線に人間のニーズをもたらすことを目的としている。
マルチモーダルモジュラーアーキテクチャによる解釈可能性に関する4つの新しい技術貢献を提案する。
我々の研究は、最先端のパフォーマンスとビルトインの透明性と信頼のバランスをとる、人間中心のAIシステムの基礎を築いた。
論文 参考訳(メタデータ) (2025-05-28T16:23:48Z) - Beyond Detection: Designing AI-Resilient Assessments with Automated Feedback Tool to Foster Critical Thinking [0.0]
本研究は, 検出ではなく, 評価設計に基づく能動的AIレジリエントソリューションを提案する。
WebベースのPythonツールで、Bloomの分類と高度な自然言語処理技術を統合する。
これは、タスクがリコールや要約のような下位の思考や、分析、評価、作成といった上位のスキルを目標にしているかどうかを教育者が判断するのに役立つ。
論文 参考訳(メタデータ) (2025-03-30T23:13:00Z) - AI in Education: Rationale, Principles, and Instructional Implications [0.0]
ChatGPTのような生成AIは、人間のようなコンテンツを作り、その教育的役割について疑問を呈する。
この研究は、AIが真の認知的努力を補うのではなく、確実に補完する意図的な戦略を強調している。
論文 参考訳(メタデータ) (2024-12-02T14:08:07Z) - Auto-assessment of assessment: A conceptual framework towards fulfilling the policy gaps in academic assessment practices [4.770873744131964]
英国、アラブ首長国連邦、イラクの3カ国から117人の学者を対象に調査を行った。
我々は、ほとんどの学者が、教育におけるAIについて肯定的な意見を持っていることを確認した。
学生の働きを自律的に評価する新しいAIフレームワークを初めて提案する。
論文 参考訳(メタデータ) (2024-10-28T15:22:37Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。