論文の概要: Development of the Measure of Assessment Self-Efficacy (MASE) for Quizzes and Exams
- arxiv url: http://arxiv.org/abs/2508.18631v1
- Date: Tue, 26 Aug 2025 03:17:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.654412
- Title: Development of the Measure of Assessment Self-Efficacy (MASE) for Quizzes and Exams
- Title(参考訳): クイズ・エキシマのための自己効力評価尺度(MASE)の開発
- Authors: Kaitlin Riegel, Tanya Evans, Jason M. Stephens,
- Abstract要約: 評価関連自己効力感の尺度は、コンテンツ固有のタスクに対する学生の信念に焦点をあてるが、アセスメントテイクに関する信念を省略する。
本研究は,評価に関する2種類の有効信条の評価を目的とした,評価自己効力感尺度(MASE)の開発と試験を目的とした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-efficacy is a significant construct in education due to its predictive relationship with achievement. Existing measures of assessment-related self-efficacy concentrate on students' beliefs about content-specific tasks but omit beliefs around assessment-taking. This research aimed to develop and test the Measure of Assessment Self-Efficacy (MASE), designed to assess two types of efficacy beliefs related to assessment (i.e., 'comprehension and execution' and 'emotional regulation') in two scenarios (i.e., a low-stakes online quiz and a high-stakes final exam). Results from confirmatory factor analysis in Study 1 (N = 301) supported the hypothesised two-factor measurement models for both assessment scenarios. In Study 2, results from MGCFA (N = 277) confirmed these models were invariant over time and provided evidence for the scales' validity. Study 3 demonstrated the exam-related MASE was invariant across cohorts of students (Ns = 277; 329). Potential uses of the developed scales in educational research are discussed.
- Abstract(参考訳): 自己効力は、達成と予測的関係にあるため、教育において重要な構成要素である。
既存の評価関連自己効力感の尺度は、コンテンツ固有のタスクに対する生徒の信念に集中しているが、アセスメントテイクに関する信念は省略されている。
本研究の目的は、評価に関する2種類の有効信念(「理解と実行」と「情緒的規制」)を2つのシナリオ(「低レベルのオンラインクイズ」と「高レベルの最終試験」)で評価することを目的とした評価自己効力度尺度(MASE)の開発と試験である。
実験1 (N = 301) における確認因子分析の結果, いずれのシナリオにおいても仮説付き2要素測定モデルが支持された。
研究2では、MGCFA (N = 277) の結果、これらのモデルが時間とともに不変であることが確認され、スケールの有効性が証明された。
調査3では,MASEは学生のコホート間で不変であることを示した(Ns = 277, 329)。
教育研究における先進的なスケールの可能性について論じる。
関連論文リスト
- AnesBench: Multi-Dimensional Evaluation of LLM Reasoning in Anesthesiology [47.52685298426068]
麻酔学における大規模言語モデル(LLM)の推論能力を体系的に評価した。
AnesBenchは3段階にわたる麻酔学関連推論を評価するために設計された言語間ベンチマークである。
論文 参考訳(メタデータ) (2025-04-03T08:54:23Z) - Wearable Device-Based Real-Time Monitoring of Physiological Signals: Evaluating Cognitive Load Across Different Tasks [6.673424334358673]
本研究は,中等教育学生の脳波(EEG)データに対する認知負荷評価を行うために,最先端のウェアラブルモニタリング技術を用いている。
この研究は、中等教育学生の認知負荷を評価するための応用価値と、様々な課題にまたがる有用性について考察した。
論文 参考訳(メタデータ) (2024-06-11T10:48:26Z) - ConSiDERS-The-Human Evaluation Framework: Rethinking Human Evaluation for Generative Large Language Models [53.00812898384698]
生成型大規模言語モデル(LLM)の人間による評価は多分野にわたる作業であるべきだと論じる。
認知バイアスが、流動的な情報や真理をいかに説明するか、そして、認識の不確実性が、Likertのような評価スコアの信頼性にどのように影響するかを強調します。
本稿では,ConSiDERS-The-Human評価フレームワークを提案する。一貫性,スコーリング基準,差別化,ユーザエクスペリエンス,責任,スケーラビリティの6つの柱からなる。
論文 参考訳(メタデータ) (2024-05-28T22:45:28Z) - Modeling the Uncertainty with Maximum Discrepant Students for
Semi-supervised 2D Pose Estimation [57.17120203327993]
半教師付きポーズ推定タスクにおける擬似ラベルの品質を推定する枠組みを提案する。
提案手法は,3つのデータセットに対する半教師付きポーズ推定の性能を向上させる。
論文 参考訳(メタデータ) (2023-11-03T08:11:06Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Prototyping Theories with ChatGPT: Experiment with the Technology
Acceptance Model [0.0]
この研究の目的は、ChatGPTが理論的概念を理解し、構成物を区別する能力を評価することである。
実験の結果,ChatGPTはアクセプタンス・テクノロジー・モデル(TAM)の構成に整合した応答を生成できることが示唆された。
実験では、生成したサンプルの潜在的なバイアス、特に性別や使用経験について明らかにした。
論文 参考訳(メタデータ) (2023-06-04T23:55:53Z) - The competent Computational Thinking test (cCTt): a valid, reliable and gender-fair test for longitudinal CT studies in grades 3-6 [0.06282171844772422]
本研究では,2709人の生徒のデータを用いて,3年生から6年生(年齢7~11歳)までの学習を確実に評価できるかどうかを検討した。
以上の結果から,cCTtは学年3-6では有効で信頼性が高く,ジェンダーフェアであり,より複雑な項目は学年5-6では有益であることが示唆された。
論文 参考訳(メタデータ) (2023-05-31T03:29:04Z) - Evaluating the Performance of Large Language Models on GAOKAO Benchmark [53.663757126289795]
本稿では,中国のガオカオ検定の質問をサンプルとして用いた直感的なベンチマークであるガオカオベンチについて紹介する。
人間の評価により, GPT-4, ChatGPT, ERNIE-Botを含むLLMの変換総得点を得た。
また、LLMを用いて主観的質問を格付けし、モデルスコアが人間のスコアと適度な一貫性を達成することを確認する。
論文 参考訳(メタデータ) (2023-05-21T14:39:28Z) - The competent Computational Thinking test (cCTt): Development and
validation of an unplugged Computational Thinking test for upper primary
school [0.8367620276482053]
対象は7~9歳の学生を対象にしたCT検査である。
専門家による評価の結果,cCTtは顔,構成,内容の妥当性が良好であることが示唆された。
学生データの心理測定分析は、十分な信頼性、難易度、識別可能性を示す。
論文 参考訳(メタデータ) (2022-03-11T15:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。