論文の概要: Closing the Block-to-Text Gap: A Domain-Specific JavaScript Editor for Early Computational Thinking
- arxiv url: http://arxiv.org/abs/2512.00012v1
- Date: Wed, 15 Oct 2025 18:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.380971
- Title: Closing the Block-to-Text Gap: A Domain-Specific JavaScript Editor for Early Computational Thinking
- Title(参考訳): Block-to-Text Gapのクローズ: 初期の計算思考のためのドメイン特有なJavaScriptエディタ
- Authors: Andrei Enea,
- Abstract要約: 本稿では,8~10歳児のブロックベースプログラミングへの移行を支援するために,WebベースのJavaScriptエディタを提案する。
このシステムは、創造性、自己補正、持続的なエンゲージメントを奨励し、教育者が認証コーディングの実践的なツールを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a web-based JavaScript editor designed to help children aged 8-10 transition from block-based to text-based programming. The system introduces a simplified domain-specific language (DSL) focused on visual art, combining authentic JavaScript syntax with immediate, creative visual feedback. A four-week pilot study (N = 15) demonstrated significant improvements in computational thinking skills (mean CTCI gain of +10.9, p < 0.001), along with a 70% reduction in syntax errors. Participants advanced from basic drawing functions to sophisticated algorithmic designs using loops, conditionals, and animations. By integrating constructionist principles with a visual-first DSL, this research contributes a validated pedagogical framework for easing the block-to-text transition in K-12 computer science education. The system encourages creativity, self-correction, and sustained engagement, offering educators a practical, scalable tool for introducing authentic coding to young learners.
- Abstract(参考訳): 本稿では,8歳から10歳までの子どもがブロックベースからテキストベースのプログラミングに移行するのを支援すべく,WebベースのJavaScriptエディタを提案する。
このシステムは、ビジュアルアートに焦点を当てた単純化されたドメイン固有言語(DSL)を導入し、真正のJavaScript構文と即時かつ創造的なビジュアルフィードバックを組み合わせた。
4週間のパイロット研究 (N = 15) では、計算思考能力(平均CTCIゲイン +10.9, p < 0.001)が向上し、構文エラーが70%減少した。
参加者は基本的な描画機能からループ、条件、アニメーションを使った洗練されたアルゴリズム設計へと進化した。
本研究は、構成主義の原則を視覚第一のDSLと統合することにより、K-12コンピュータサイエンス教育におけるブロック・ツー・テキストの移行を緩和するための検証済みの教育的枠組みを提供する。
このシステムは、創造性、自己補正、持続的なエンゲージメントを奨励し、教育者が若い学習者に真のコーディングを導入するための実践的でスケーラブルなツールを提供する。
関連論文リスト
- Autograder+: A Multi-Faceted AI Framework for Rich Pedagogical Feedback in Programming Education [0.5529795221640363]
Autograder+は、オートグレーディングを純粋に要約的なプロセスからフォーマティブな学習体験に移行するように設計されている。
微調整されたLarge Language Modelを使った自動フィードバック生成と、学習パターンを明らかにするための学生コード提出の可視化だ。
論文 参考訳(メタデータ) (2025-10-30T11:41:50Z) - Language-Inspired Relation Transfer for Few-shot Class-Incremental Learning [42.923762020491495]
視覚的な手掛かりとテキストの描写でオブジェクトを理解するために,LRT(Language-inspired Relation Transfer)パラダイムを提案する。
提案したLRTは,Mini-ImageNetおよびCIFAR-100 FSCILベンチマークの最終セッションにおいて,最先端モデルよりも13%以上,7%以上性能が向上する。
論文 参考訳(メタデータ) (2025-01-10T10:59:27Z) - Handwritten Code Recognition for Pen-and-Paper CS Education [33.53124589437863]
学生が紙に手書きのプログラムを書くことでコンピュータサイエンス(CS)を教えることは、教育学の重要な利点である。
しかし、現在手書きプログラムを運用するための教育方法やサポートソフトウェアが不足している点が大きな障害となっている。
提案手法は2つの革新的手法を統合し,第1に,幻覚を伴わずに,OCR後誤り訂正のための言語モデルとインデント認識モジュールを組み合わせる。
論文 参考訳(メタデータ) (2024-08-07T21:02:17Z) - IntCoOp: Interpretability-Aware Vision-Language Prompt Tuning [94.52149969720712]
IntCoOpは、プロンプトチューニング中に属性レベルの帰納バイアスとクラス埋め込みを共同で調整することを学ぶ。
IntCoOpは10種類のデータセットの平均パフォーマンスを7.35%改善した。
論文 参考訳(メタデータ) (2024-06-19T16:37:31Z) - ChatScratch: An AI-Augmented System Toward Autonomous Visual Programming
Learning for Children Aged 6-12 [13.943361631775113]
ChatScratchは、幼児のための自律的なプログラミング学習を促進するAI拡張システムである。
ChatScratchは、アーティストのブロックを克服するために、構造化されたインタラクティブなストーリーボードとビジュアルキューを使用している。
論文 参考訳(メタデータ) (2024-02-07T15:55:51Z) - Visually-augmented pretrained language models for NLP tasks without
images [77.74849855049523]
既存のソリューションはしばしば視覚的知識増強のために明示的なイメージに依存している。
我々は、新しいtextbfVisually-textbfAugmented fine-tuningアプローチを提案する。
我々のアプローチは、BERT、RoBERTa、BART、T5を異なるスケールで継続的に改善することができる。
論文 参考訳(メタデータ) (2022-12-15T16:13:25Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - CLIP also Understands Text: Prompting CLIP for Phrase Understanding [65.59857372525664]
Contrastive Language-Image Pretraining (CLIP)は、自然言語による事前学習によって視覚概念を効率的に学習する。
本稿では,CLIPのテキストエンコーダが語句理解の強力な能力を示し,適切な設計のプロンプトでBERTなどの一般的な言語モデルよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T23:35:18Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Handwriting Quality Analysis using Online-Offline Models [4.61479186986544]
この研究は、先進的なデジタル教育ツールの開発を可能にする革新的なeラーニングプロジェクトの一部である。
間違いを自動的に検知し、子供たちの書き方に対するリアルタイムなフィードバックを与え、教師が子供の書き方を理解して評価するのを助ける。
論文 参考訳(メタデータ) (2020-10-09T14:33:56Z) - Contrastive Code Representation Learning [95.86686147053958]
一般的な再構成に基づくBERTモデルは,ソースコードの編集に敏感であることを示す。
コントラコード(ContraCode)は、コード機能を学ぶのにフォームではなく、コントラスト的な事前学習タスクである。
論文 参考訳(メタデータ) (2020-07-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。