論文の概要: Analyzing-Evaluating-Creating: Assessing Computational Thinking and Problem Solving in Visual Programming Domains
- arxiv url: http://arxiv.org/abs/2403.12227v1
- Date: Mon, 18 Mar 2024 20:18:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 18:12:11.312724
- Title: Analyzing-Evaluating-Creating: Assessing Computational Thinking and Problem Solving in Visual Programming Domains
- Title(参考訳): 分析-評価-クリーティング:ビジュアルプログラミング領域における計算思考と問題解決の評価
- Authors: Ahana Ghosh, Liina Malva, Adish Singla,
- Abstract要約: コンピュータ思考(CT)と問題解決のスキルは、世界中のK-8スクールカリキュラムに統合されつつある。
我々はブルームの分類学における3つの高い認知レベルに焦点を当てた新しいテストであるACEを開発した。
学年3~7年生371名を対象に,ACEの心理測定特性について検討した。
- 参考スコア(独自算出の注目度): 21.14335914575035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computational thinking (CT) and problem-solving skills are increasingly integrated into K-8 school curricula worldwide. Consequently, there is a growing need to develop reliable assessments for measuring students' proficiency in these skills. Recent works have proposed tests for assessing these skills across various CT concepts and practices, in particular, based on multi-choice items enabling psychometric validation and usage in large-scale studies. Despite their practical relevance, these tests are limited in how they measure students' computational creativity, a crucial ability when applying CT and problem solving in real-world settings. In our work, we have developed ACE, a novel test focusing on the three higher cognitive levels in Bloom's Taxonomy, i.e., Analyze, Evaluate, and Create. ACE comprises a diverse set of 7x3 multi-choice items spanning these three levels, grounded in elementary block-based visual programming. We evaluate the psychometric properties of ACE through a study conducted with 371 students in grades 3-7 from 10 schools. Based on several psychometric analysis frameworks, our results confirm the reliability and validity of ACE. Our study also shows a positive correlation between students' performance on ACE and performance on Hour of Code: Maze Challenge by Code.org.
- Abstract(参考訳): コンピュータ思考(CT)と問題解決のスキルは、世界中のK-8スクールカリキュラムに統合されつつある。
その結果、これらのスキルの学生の熟練度を評価するための信頼性評価を開発する必要性が高まっている。
近年の研究では、様々なCT概念や実践、特に大規模研究における精神測定的検証と使用を可能にする多項目に基づいて、これらのスキルを評価するための試験が提案されている。
実際の関連性にもかかわらず、これらのテストは学生の計算的創造性を測定する方法に限られており、実際の環境でCTと問題解決を適用する上で重要な能力である。
本研究は,ブルームの分類学における3つの高い認知レベル,すなわちアナライズ,評価,創造に焦点を当てた新しいテストであるACEを開発した。
ACEは、これらの3つのレベルにまたがる7x3の多目的アイテムの多種多様なセットで構成されており、基本的なブロックベースのビジュアルプログラミングに基づいている。
学年3~7年生371名を対象に,ACEの心理測定特性について検討した。
いくつかの心理測定分析フレームワークに基づいて,ACEの信頼性と妥当性を確認した。
Code.org による Hour of Code: Maze Challenge の成績と ACE における学生の成績との間にも正の相関関係が認められた。
関連論文リスト
- Construction and Preliminary Validation of a Dynamic Programming Concept Inventory [0.7389633345370871]
概念発明は、学術分野における重要な概念に対する学生の理解を評価する標準化された評価である。
STEM分野に広く普及しているが、その開発は動的プログラミング(DP)のような先進的なコンピュータ科学のトピックに遅れがある。
本研究は,DP概念に関する既知学生の誤解を対象とする複数選択質問を定式化するための反復的プロセスについて詳述する。
我々は,D PCIを172名の大学生に実施し,質問を適切な難易度と判断し,学生の理解度の違いを効果的に判別することで,予備的な心理測定検証を行った。
論文 参考訳(メタデータ) (2024-11-22T01:01:43Z) - CBT-Bench: Evaluating Large Language Models on Assisting Cognitive Behavior Therapy [67.23830698947637]
認知行動療法(CBT)支援の体系的評価のための新しいベンチマークであるCBT-BENCHを提案する。
我々は, CBT-BENCHにおける3段階の課題を含む: I: 基本的CBT知識獲得, 複数選択質問のタスク; II: 認知的モデル理解, 認知的歪み分類, 主根的信念分類, きめ細かい中核信念分類のタスク; III: 治療的応答生成, CBTセラピーセッションにおける患者音声に対する応答生成のタスク。
実験結果から,LLMはCBT知識のリサイティングに優れるが,複雑な実世界のシナリオでは不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T04:52:57Z) - Evaluation of OpenAI o1: Opportunities and Challenges of AGI [112.0812059747033]
o1-previewは目覚ましい能力を示し、しばしば人間レベルまたは優れたパフォーマンスを実現した。
このモデルは、様々な分野にわたる複雑な推論と知識の統合を必要とするタスクに優れていた。
総合的な結果は、人工知能への大きな進歩を示している。
論文 参考訳(メタデータ) (2024-09-27T06:57:00Z) - Cross-subject Brain Functional Connectivity Analysis for Multi-task Cognitive State Evaluation [16.198003101055264]
本研究は脳機能と脳波信号とを併用し,複数の被験者の脳領域の関連性を把握し,リアルタイム認知状態を評価する。
分析と評価のために30件の被験者が取得され, 内的対象, 対人的対象, ジェンダー的基盤となる脳機能接続など, さまざまな視点で解釈される。
論文 参考訳(メタデータ) (2024-08-27T12:51:59Z) - Designing the virtual CAT: A digital tool for algorithmic thinking assessment in compulsory education [0.0]
アルゴリズム思考(英: Algorithmic Thinking、AT)は、今日のデジタル社会において重要なスキルである。
仮想クロスアレイタスク(CAT)の設計と開発プロセスについて述べる。
スイスの強制教育におけるアルゴリズムスキルの評価を目的とした、プラグのない評価活動のデジタル化である。
論文 参考訳(メタデータ) (2024-08-02T13:36:17Z) - Evaluating Human-AI Collaboration: A Review and Methodological Framework [4.41358655687435]
人間-AIコラボレーション(Human-AI Collaboration、HAIC)として知られる個人との作業環境における人工知能(AI)の利用が不可欠である。
HAICの有効性を評価することは、関連するコンポーネントの複雑な相互作用のため、依然として困難である。
本稿では,既存のHAIC評価手法を詳細に分析し,これらのシステムをより効果的に評価するための新しいパラダイムを開発する。
論文 参考訳(メタデータ) (2024-07-09T12:52:22Z) - Survey of Computerized Adaptive Testing: A Machine Learning Perspective [66.26687542572974]
コンピュータ適応テスト (Computerized Adaptive Testing, CAT) は、試験の熟練度を評価するための効率的で調整された方法である。
本稿では,この適応テスト手法に対する新たな視点を提示し,機械学習に着目したCATに関する調査を行うことを目的とする。
論文 参考訳(メタデータ) (2024-03-31T15:09:47Z) - Multi-Dimensional Evaluation of Text Summarization with In-Context
Learning [79.02280189976562]
本稿では,テキスト内学習を用いた多次元評価器として,大規模言語モデルの有効性について検討する。
実験の結果,テキスト要約作業において,文脈内学習に基づく評価手法が学習評価フレームワークと競合していることが判明した。
次に、テキスト内サンプルの選択や数などの要因がパフォーマンスに与える影響を分析する。
論文 参考訳(メタデータ) (2023-06-01T23:27:49Z) - UKP-SQuARE: An Interactive Tool for Teaching Question Answering [61.93372227117229]
質問応答の指数的増加(QA)は、あらゆる自然言語処理(NLP)コースにおいて必須のトピックとなっている。
本稿では、QA教育のプラットフォームとしてUKP-SQuAREを紹介する。
学生は様々な視点から様々なQAモデルを実行、比較、分析することができる。
論文 参考訳(メタデータ) (2023-05-31T11:29:04Z) - The competent Computational Thinking test (cCTt): a valid, reliable and gender-fair test for longitudinal CT studies in grades 3-6 [0.06282171844772422]
本研究では,2709人の生徒のデータを用いて,3年生から6年生(年齢7~11歳)までの学習を確実に評価できるかどうかを検討した。
以上の結果から,cCTtは学年3-6では有効で信頼性が高く,ジェンダーフェアであり,より複雑な項目は学年5-6では有益であることが示唆された。
論文 参考訳(メタデータ) (2023-05-31T03:29:04Z) - Quiz-based Knowledge Tracing [61.9152637457605]
知識追跡は、学習相互作用に基づいて個人の進化する知識状態を評価することを目的としている。
QKTは、既存の方法と比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-05T12:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。