論文の概要: How to Assess AI Literacy: Misalignment Between Self-Reported and Objective-Based Measures
- arxiv url: http://arxiv.org/abs/2601.06101v1
- Date: Sat, 03 Jan 2026 00:10:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.562236
- Title: How to Assess AI Literacy: Misalignment Between Self-Reported and Objective-Based Measures
- Title(参考訳): AIリテラシーを評価する - 自己報告と客観的基準の相違
- Authors: Shan Zhang, Ruiwei Xiao, Anthony F. Botelho, Guanze Liao, Thomas K. F. Chiu, John Stamper, Kenneth R. Koedinger,
- Abstract要約: K-12教育における人工知能(AI)の普及は、教師のAIリテラシーの心理測定による測定の必要性を浮き彫りにしている。
本研究では,概念,利用,評価,倫理の確立した枠組みの中で,教師AIリテラシーのSRおよびOB尺度を開発し,評価した。
後期プロファイル分析では,AIリテラシーを持たない教師の間で,過大評価 (SR > OB),過小評価 (SR OB),アライメント (SR OB) の6つの異なるプロファイルを同定した。
- 参考スコア(独自算出の注目度): 6.943056322842481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of Artificial Intelligence (AI) in K-12 education highlights the need for psychometrically-tested measures of teachers' AI literacy. Existing work has primarily relied on either self-report (SR) or objective-based (OB) assessments, with few studies aligning the two within a shared framework to compare perceived versus demonstrated competencies or examine how prior AI literacy experience shapes this relationship. This gap limits the scalability of learning analytics and the development of learner profile-driven instructional design. In this study, we developed and evaluated SR and OB measures of teacher AI literacy within the established framework of Concept, Use, Evaluate, and Ethics. Confirmatory factor analyses support construct validity with good reliability and acceptable fit. Results reveal a low correlation between SR and OB factors. Latent profile analysis identified six distinct profiles, including overestimation (SR > OB), underestimation (SR < OB), alignment (SR close to OB), and a unique low-SR/low-OB profile among teachers without AI literacy experience. Theoretically, this work extends existing AI literacy frameworks by validating SR and OB measures on shared dimensions. Practically, the instruments function as diagnostic tools for professional development, supporting AI-informed decisions (e.g., growth monitoring, needs profiling) and enabling scalable learning analytics interventions tailored to teacher subgroups.
- Abstract(参考訳): K-12教育における人工知能(AI)の普及は、教師のAIリテラシーの心理測定による測定の必要性を浮き彫りにしている。
既存の作業は、主に自己報告(SR)または客観的ベース(OB)の評価に依存しており、認知された能力と実証された能力を比較したり、前回のAIリテラシー経験がこの関係をどう形作るかを調べるために、共有フレームワーク内で2つを並べた研究はほとんどない。
このギャップは、学習分析のスケーラビリティと学習者プロファイル駆動型指導設計の開発を制限する。
本研究では,概念,利用,評価,倫理の確立した枠組みの中で,教師AIリテラシーのSRおよびOB尺度を開発し,評価した。
確認因子分析は、信頼性と適合性に優れた構成妥当性をサポートする。
その結果,SR因子とOB因子との相関は低かった。
後期プロファイル分析では,AIリテラシー経験のない教師の間で,過大評価 (SR > OB),過小評価 (SR < OB),アライメント (SR < OB) の6つの異なるプロファイルを同定した。
理論的には、この研究は既存のAIリテラシーフレームワークを拡張し、共有次元におけるSRとOBの測定を検証する。
実際には、この機器は、専門的な開発のための診断ツールとして機能し、AIにインフォームドされた意思決定(例えば、成長監視、プロファイリングの必要性)をサポートし、教師のサブグループに適したスケーラブルな学習分析の介入を可能にする。
関連論文リスト
- AI-Educational Development Loop (AI-EDL): A Conceptual Framework to Bridge AI Capabilities with Classical Educational Theories [8.500617875591633]
本研究では、古典的学習理論とAIを融合した理論駆動型フレームワークであるAI-Educational Development Loop(AI-EDL)を紹介する。
このフレームワークは透明性、自己統制型学習、教育的監視を強調している。
論文 参考訳(メタデータ) (2025-08-01T15:44:19Z) - Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - (AI peers) are people learning from the same standpoint: Perception of AI characters in a Collaborative Science Investigation [0.0]
シナリオベースアセスメント(SBA)は、本物の社会的相互作用のコンテキストを提供するためのシミュレーションエージェントを導入する。
近年のテキスト・トゥ・ビデオ技術のようなマルチモーダルAIの進歩により、これらのエージェントはAI生成文字に拡張される。
本研究では,協調科学研究の文脈を反映したSBAにおいて,教師とチームメイトの役割を担っているAIキャラクタを学習者がどう感じているかを検討する。
論文 参考訳(メタデータ) (2025-06-06T15:29:11Z) - Methodological Foundations for AI-Driven Survey Question Generation [41.94295877935867]
本稿では,ジェネレーティブAIを教育調査に活用するための方法論的枠組みを提案する。
大規模言語モデルが適応的でコンテキスト対応のサーベイ質問を生成する方法について検討する。
偏見、プライバシー、透明性などの倫理的問題を考察する。
論文 参考訳(メタデータ) (2025-05-02T09:50:34Z) - Is Trust Correlated With Explainability in AI? A Meta-Analysis [0.0]
我々は、AI説明可能性と信頼の関係を探るため、既存の文献を網羅的に調査する。
我々の分析では、90の研究データを取り入れた結果、AIシステムの説明可能性と彼らが与える信頼との間に統計的に有意だが適度な正の相関関係が明らかとなった。
この研究は、特に説明責任の促進と、医療や司法などの重要な領域におけるユーザの信頼の促進において、社会技術的に幅広い影響を強調している。
論文 参考訳(メタデータ) (2025-04-16T23:30:55Z) - Analyzing the Impact of AI Tools on Student Study Habits and Academic Performance [0.0]
この研究は、AIツールがパーソナライズされた学習、適応テスト調整をサポートし、リアルタイムの教室分析を提供する方法に焦点を当てている。
学生のフィードバックはこれらの特徴に対する強い支持を示し、GPAの増加とともに研究時間を大幅に短縮した。
これらのメリットにもかかわらず、AIへの過度依存や、AIと従来の教育方法を統合することの難しさといった課題も特定された。
論文 参考訳(メタデータ) (2024-12-03T04:51:57Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [51.26815896167173]
本稿では,3つの相補的な側面からPAMIレビューを総合的に分析する。
我々の分析は、現在のレビューの実践において、独特の組織パターンと永続的なギャップを明らかにします。
最後に、最先端のAI生成レビューの評価は、コヒーレンスと組織の進歩を奨励していることを示している。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - MAILS -- Meta AI Literacy Scale: Development and Testing of an AI
Literacy Questionnaire Based on Well-Founded Competency Models and
Psychological Change- and Meta-Competencies [6.368014180870025]
アンケートはモジュラー(すなわち、互いに独立して使用できる異なるファセットを含む)であり、プロフェッショナルな生活に柔軟に適用できるべきである。
我々は、AIリテラシーの異なる側面を表すために、Ngと同僚がAIリテラシーを概念化した60項目を作成した。
AIに関する問題解決、学習、感情制御などの心理的能力を表す12項目が追加されている。
論文 参考訳(メタデータ) (2023-02-18T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。