論文の概要: Monitor++?: Multiple versus Single Laboratory Monitors in Early
Programming Education
- arxiv url: http://arxiv.org/abs/2108.07729v1
- Date: Fri, 13 Aug 2021 14:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-18 14:48:37.820947
- Title: Monitor++?: Multiple versus Single Laboratory Monitors in Early
Programming Education
- Title(参考訳): Monitor++?
早期プログラミング教育における複数対単一実験室モニター
- Authors: Matthew Stephan
- Abstract要約: 本稿では,学生が複数のモニタを使用する入門レベルのプログラミングコースについて,実証的研究を行った。
生徒のパフォーマンスと自己報告の体験を、1台のモニターで比較する。
- 参考スコア(独自算出の注目度): 4.797216015572358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CONTRIBUTION: This paper presents an empirical study of an introductory-level
programming course with students using multiple monitors and compares their
performance and self-reported experiences versus students using a single
monitor. BACKGROUND: Professional-level programming in many technological
fields often employs multiple-monitors stations, however, some education
laboratories employ single-monitor stations. This is unrepresentative of what
students will encounter in practice and experiential learning. RESEARCH
QUESTIONS: This study aims to answer three research questions. The questions
include discovering the experiential observations of the students, contrasting
the performance of the students using one monitor versus those using two
monitors, and an investigation of the ways in which multiple monitors were
employed by the students. METHODOLOGY: Half of the students in the study had
access to multiple monitors. This was the only difference between the two study
groups. This study contrasts grade medians and conducts median-test evaluation.
Additionally, an experience survey facilitated likert-scale values and
open-ended feedback questions facilitated textual analysis. Limitations of the
study include the small sample size (86 students) and lack of control of
participant composition. FINDINGS: Students reacted very favorably in rating
their experience using the intervention. Overall, the multiple-monitor group
had a slight performance improvement. Most improvement was in software-design
and graphics assignments. Performance increased statistically significantly on
the interfaces-and-hierarchies labs. Students used multiple-monitors in
different ways including reference guides, assignment specifications, and more.
- Abstract(参考訳): 貢献:本稿は,複数のモニタを用いた入門レベルのプログラミングコースを学生に対して実施し,そのパフォーマンスと自己報告体験を1つのモニタを用いた生徒と比較した。
BACKGROUND: 多くの技術分野におけるプロフェッショナルレベルのプログラミングは、しばしば複数のモニターステーションを使用するが、一部の教育研究所は単一のモニターステーションを使用している。
これは、学生が実践や経験的学習で何と遭遇するかを示すものではない。
研究QUESTIONS: 本研究は3つの研究課題に答えることを目的としている。
課題は,学生の経験的観察の発見,1つのモニターを用いた生徒のパフォーマンスと2つのモニターを用いた生徒のパフォーマンスの対比,および複数のモニターを学生が利用する方法の調査である。
METHODOLOGY: 調査対象の学生の半数が複数のモニターにアクセスできた。
これが2つの研究グループ間の唯一の違いであった。
本研究は、中等度を対比し、中等度評価を行う。
さらに、経験調査は、ヨットスケールの値を容易にし、オープンエンドフィードバックの質問はテキスト分析を容易にした。
この研究の限界は、サンプルサイズ(86人の学生)と参加者構成の制御の欠如である。
FINDINGS: 学生は介入による経験の評価に非常に好意的に反応した。
全体として、マルチモニタグループのパフォーマンスはわずかに改善した。
ほとんどの改善はソフトウェア設計とグラフィックの割り当てであった。
インターフェース・アンド・ヒエラルキー研究所では、統計的にパフォーマンスが著しく向上した。
学生は参照ガイドや代入仕様など、さまざまな方法で複数のモニターを使用した。
関連論文リスト
- CLGT: A Graph Transformer for Student Performance Prediction in
Collaborative Learning [6.140954034246379]
協調学習のための拡張グラフトランスフォーマーフレームワーク(CLGT)を提案する。
実験結果から,提案したCLGTは,実世界のデータセットに基づいて予測を行うという点で,ベースラインモデルよりも優れていたことが確認された。
論文 参考訳(メタデータ) (2023-07-30T09:54:30Z) - AssistGPT: A General Multi-modal Assistant that can Plan, Execute,
Inspect, and Learn [25.510696745075688]
我々は、Plan、Execute、Inspect、Learningと呼ばれるインターリーブコードと言語推論アプローチを備えたマルチモーダルAIアシスタントAssistGPTを提案する。
Plannerは自然言語を使ってExecutorで次にすべきツールを計画することができる。
我々は, A-OKVQA と NExT-QA のベンチマーク実験を行い, 最先端の結果を得た。
論文 参考訳(メタデータ) (2023-06-14T17:12:56Z) - Using EEG Signals to Assess Workload during Memory Retrieval in a
Real-world Scenario [3.9763527484363292]
本研究では,参加者の典型的なオフィス作業における記憶負荷と脳波の関係について検討した。
脳波帯パワー、相互情報、コヒーレンスを機械学習モデルを訓練し、高いメモリ負荷状態と低いメモリ負荷状態の分類に利用した。
論文 参考訳(メタデータ) (2023-05-14T02:01:54Z) - Unified Demonstration Retriever for In-Context Learning [56.06473069923567]
Unified Demonstration Retriever (textbfUDR)は、幅広いタスクのデモを検索する単一のモデルである。
我々は,高品質な候補を見つけるための反復的なマイニング戦略を備えたマルチタスクリストワイド・トレーニング・フレームワークを提案する。
13のタスクファミリーと複数のデータドメインにわたる30以上のタスクの実験は、UDRがベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-05-07T16:07:11Z) - Dynamic Contrastive Distillation for Image-Text Retrieval [90.05345397400144]
画像テキスト検索モデルを圧縮するための新しいプラグイン動的コントラスト蒸留(DCD)フレームワークを提案する。
提案したDCD戦略を2つの最先端の視覚言語事前訓練モデル、すなわち ViLT と METER に適用することに成功している。
MS-COCOとFlickr30Kベンチマークの実験では、DCDフレームワークの有効性と効率が示されている。
論文 参考訳(メタデータ) (2022-07-04T14:08:59Z) - Benchmarking Safety Monitors for Image Classifiers with Machine Learning [0.0]
高精度機械学習(ML)画像分類器は、動作時に失敗しないことを保証できない。
安全モニタなどのフォールトトレランス機構の使用は,システムを安全な状態に保つ上で有望な方向である。
本稿では,ML画像分類器のベンチマークを行うためのベースラインフレームワークを確立することを目的とする。
論文 参考訳(メタデータ) (2021-10-04T07:52:23Z) - StudyMe: A New Mobile App for User-Centric N-of-1 Trials [68.8204255655161]
N-of-1臨床試験は、個人が個人の健康目標に対する介入の効果を体系的に評価できる多種多様な自己実験である。
StudyMeはオープンソースのモバイルアプリで、https://play.google.com/store/apps/details?id=health.studyu.me.comから無料で利用できる。
論文 参考訳(メタデータ) (2021-07-31T20:43:36Z) - Do Different Tracking Tasks Require Different Appearance Models? [118.02175542476367]
我々は、同じフレームワーク内の5つの異なるタスクに対処する統合されたトラッキングソリューションUniTrackを提案する。
UniTrackは単一かつタスクに依存しない外観モデルで構成されており、教師付きまたは自己管理的な方法で学習することができる。
このフレームワークでは,ほとんどのトラッキングタスクがいかに解決可能かを示し,同じ外観モデルを用いて検討された5つのタスクすべてに対して,特殊化メソッドと競合する性能が得られることを示す。
論文 参考訳(メタデータ) (2021-07-05T17:40:17Z) - Learning to Track Instances without Video Annotations [85.9865889886669]
本稿では,ラベル付き画像データセットとラベルなしビデオシーケンスのみを用いたインスタンス追跡ネットワークを学習する,新しい半教師付きフレームワークを提案する。
画像のみを訓練しても,学習した特徴表現は出現の変動にロバストであることが判明した。
さらに、このモジュールを単一ステージのインスタンスセグメンテーションとポーズ推定フレームワークに統合します。
論文 参考訳(メタデータ) (2021-04-01T06:47:41Z) - Multi-modal Visual Tracking: Review and Experimental Comparison [85.20414397784937]
マルチモーダルトラッキングアルゴリズム,特に可視深度(RGB-D)と可視温度(RGB-T)を要約する。
5つのデータセット上でトラッカーの有効性を分析する実験を行った。
論文 参考訳(メタデータ) (2020-12-08T02:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。