論文の概要: Strategies for Creating Uncertainty in the AI Era to Trigger Students Critical Thinking: Pedagogical Design, Assessment Rubric, and Exam System
- arxiv url: http://arxiv.org/abs/2602.00026v1
- Date: Sat, 17 Jan 2026 10:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.221845
- Title: Strategies for Creating Uncertainty in the AI Era to Trigger Students Critical Thinking: Pedagogical Design, Assessment Rubric, and Exam System
- Title(参考訳): AI時代の不確かさを創り出すための戦略--教育設計、アセスメント・ルーブリック、エクサム・システム
- Authors: Ahmad Samer Wazan,
- Abstract要約: 生成的試験 AIは、学生が理解や推論を示さずに正しい回答を得られるようにすることで、従来の評価に挑戦する。
この研究はAIではなく、AIを教育に組み込む一つの方法は、AIモデルの助けを借りて不確実な状況を作り出すことだ、と論じている。
我々は,AIツールを統合した試験システムであるMindsaicAIExamを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI challenges traditional assessments by allowing students to produce correct answers without demonstrating understanding or reasoning. Rather than prohibiting AI, this work argues that one way to integrate AI into education is by creating uncertain situations with the help of AI models and using thinking-oriented teaching approaches, where uncertainty is a central pedagogical concept for stimulating students critical thinking. Drawing on epistemology and critical thinking research studies, we propose designing learning activities and assessments around the inherent limitations of both AI models and instructors. This encourages students to reason, question, and justify their final answers. We show how explicitly controlling AI behavior during exams (such as preventing direct answers or generating plausible but flawed responses) prevents AI from becoming a shortcut to certainty. To support this pedagogy, we introduce MindMosaicAIExam, an exam system that integrates controllable AI tools and requires students to provide initial answers, critically evaluate AI outputs, and iteratively refine their reasoning. We also present an evaluation rubric designed to assess critical thinking based on students reasoning artifacts collected by the exam system.
- Abstract(参考訳): 生成AIは、学生が理解や推論を示さずに正しい回答を得られるようにすることで、従来の評価に挑戦する。
この研究はAIを禁止するのではなく、AIを教育に組み込む一つの方法は、AIモデルの助けを借りて不確実な状況を作り、不確実性は学生の批判的思考を刺激するための中心的な教育的概念である、と論じている。
本稿では、認識論と批判的思考研究に基づいて、AIモデルとインストラクターの両方の本質的限界に関する学習活動と評価を設計することを提案する。
これにより、学生は最後の答えを推論し、質問し、正当化することが奨励される。
テスト中のAIの振る舞いを明示的に制御すること(直接的な回答の防止や、妥当だが欠陥のある応答の生成など)が、AIが確実性への近道になることをいかに防いでいるかを示す。
この教育を支援するために,制御可能なAIツールを統合する試験システムであるMindMosaicAIExamを導入する。
また,試験システムによって収集されたアーティファクトを推論する学生を対象に,批判的思考を評価するために設計された評価ルーブリックも提示する。
関連論文リスト
- Do AI tutors empower or enslave learners? Toward a critical use of AI in education [7.673465837624366]
論文は、AIは学習を支援することができるが、その未確認使用は認知萎縮につながるかもしれないと論じている。
この論文は、学習者を弱めるのではなく、力を与えるAIの意図的で透明で批判的な利用を提唱している。
論文 参考訳(メタデータ) (2025-07-09T14:15:49Z) - Resurrecting Socrates in the Age of AI: A Study Protocol for Evaluating a Socratic Tutor to Support Research Question Development in Higher Education [0.0]
このプロトコルは、新しいAIベースのソクラティックチューターを評価するための構成主義的学習理論に基づく研究を定めている。
教師は、システム2の思考を促進するために、反復的で反射的な質問を通じて学生を巻き込みます。
この研究は、人間の認知を置き換えるのではなく、人工的なAIをどのように支援に適応させるかを理解することを目的としている。
論文 参考訳(メタデータ) (2025-04-05T00:49:20Z) - Form-Substance Discrimination: Concept, Cognition, and Pedagogy [55.2480439325792]
本稿では,高等教育におけるカリキュラム開発に欠かせない学習成果として,フォーム・サブスタンス・差別について検討する。
本稿では,カリキュラム設計,評価実践,明示的な指導を通じて,この能力を育成するための実践的戦略を提案する。
論文 参考訳(メタデータ) (2025-04-01T04:15:56Z) - Beyond Detection: Designing AI-Resilient Assessments with Automated Feedback Tool to Foster Critical Thinking [0.0]
本研究は, 検出ではなく, 評価設計に基づく能動的AIレジリエントソリューションを提案する。
WebベースのPythonツールで、Bloomの分類と高度な自然言語処理技術を統合する。
これは、タスクがリコールや要約のような下位の思考や、分析、評価、作成といった上位のスキルを目標にしているかどうかを教育者が判断するのに役立つ。
論文 参考訳(メタデータ) (2025-03-30T23:13:00Z) - The Imitation Game for Educational AI [23.71250100390303]
本稿では,2相チューリング様試験に基づく新しい評価フレームワークを提案する。
フェーズ1では、学生は質問に対するオープンな回答を提供し、自然な誤解を明らかにします。
フェーズ2では、AIと人間の専門家の両方が、各学生の特定のミスを条件に、新しい関連する質問に気を散らす。
論文 参考訳(メタデータ) (2025-02-21T01:14:55Z) - AI in Education: Rationale, Principles, and Instructional Implications [0.0]
ChatGPTのような生成AIは、人間のようなコンテンツを作り、その教育的役割について疑問を呈する。
この研究は、AIが真の認知的努力を補うのではなく、確実に補完する意図的な戦略を強調している。
論文 参考訳(メタデータ) (2024-12-02T14:08:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。