論文の概要: An Adapted Cascade Model to Scale Primary School Digital Education
Curricular Reforms and Teacher Professional Development Programs
- arxiv url: http://arxiv.org/abs/2306.02751v1
- Date: Mon, 5 Jun 2023 10:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 15:52:16.985789
- Title: An Adapted Cascade Model to Scale Primary School Digital Education
Curricular Reforms and Teacher Professional Development Programs
- Title(参考訳): 小学校デジタル教育カリキュラム改革のスケール化と教員養成プログラムのための適応型カスケードモデル
- Authors: Laila El-Hamamsy, Emilie-Charlotte Monnier, Sunny Avry, Fr\'ed\'erique
Chessel-Lazzarotto, Gr\'egory Li\'egeois, Barbara Bruno, Jessica Dehler
Zufferey, Francesco Mondada
- Abstract要約: 多くの国は、十分な訓練を受けた教師がいないため、すべてのK-12学生にデジタル教育(DE)を効果的に導入するのに苦労している。
本稿では,小学校のDEC-PDプログラムを管理領域全体に展開するカスケードモデルを提案する。
モデルは、(i)地域の活発な教員である教員養成者に依存し、(ii)教師訓練プログラムを操縦し、成人訓練者およびD関連能力を取得する専門家と、(iii)展開を通じて専門家の支援を受ける。
- 参考スコア(独自算出の注目度): 0.7519759698192587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many countries struggle to effectively introduce Digital Education (DE) to
all K-12 students as they lack adequately trained teachers. While cascade
models of in-service teacher-professional development (PD) can rapidly deploy
PD-programs through multiple levels of trainers to reach all teachers, they
suffer from many limitations and are often ineffective. We therefore propose an
adapted cascade model to deploy a primary school DE teacher-PD program
throughout an administrative region. The model relies on teacher-trainers who
(i) are active teachers in the region, (ii) have a prolonged trainer-PD with
experts who piloted the teacher-PD program to acquire adult-trainer and
DE-related competences, and (iii) are supported by the experts throughout the
deployment. To validate the deployment model we used data from 14
teacher-trainers, the 700 teachers they trained, and 350 teachers trained by
experts. The teacher-trainer findings demonstrate that the adapted cascade
model effectively addresses most cascade models' limitations. The
teacher-related findings further validate the adapted cascade model in terms of
perception, motivation and adoption which are at least equivalent to those
obtained with the experts. To conclude, the adapted cascade model is an
effective means of spreading primary school DE PD-programs at a large scale and
can be used in other DE reforms.
- Abstract(参考訳): 多くの国は、十分な訓練を受けた教師がいないため、すべてのK-12学生にデジタル教育(DE)を効果的に導入するのに苦労している。
pd(in-service teacher-professional development)のカスケードモデルは、複数のレベルのトレーナーにpdプログラムを迅速に展開して、すべての教師にリーチすることができるが、多くの制限があり、しばしば非効率である。
そこで本稿では,小学校のDEC-PDプログラムを管理領域全体に展開するカスケードモデルを提案する。
モデルは教師と研修生に頼り
(i)この地域で活動的な教師である。
(二)教員養成課程を修了し、成年研修及びD関連能力の取得を図った専門職の研修生。
(iii) デプロイメント全体を通じて専門家がサポートします。
デプロイモデルを検証するために、14人の教師訓練者、700人の教師、350人の教師を専門家によって訓練した。
教師訓練者の知見は,適応型カスケードモデルがほとんどのカスケードモデルの限界に効果的に対応していることを示している。
教師関係の知見は、適応されたカスケードモデルを、少なくとも専門家によって得られたものと同等の知覚、モチベーション、導入の観点からさらに検証する。
結論として、適応型カスケードモデルは小学校のde pdプログラムを大規模に広める効果的な手段であり、他のde改革にも利用できる。
関連論文リスト
- Alternate Diverse Teaching for Semi-supervised Medical Image
Segmentation [64.44345656878646]
そこで我々は,教師-学生の枠組みにおける多様な教育手法であるAD-MTを提案する。
一人の生徒モデルと2つの訓練不可能な教師モデルがあり、それは定期的に、ランダムに、別の方法で、モーメントを更新する。
論文 参考訳(メタデータ) (2023-11-29T02:44:54Z) - SKDBERT: Compressing BERT via Stochastic Knowledge Distillation [17.589678394344475]
我々は、SKDBERTと呼ばれるコンパクトなBERTスタイルの言語モデルを得るための知識蒸留(SKD)を提案する。
各イテレーションにおいて、SKDは、複数の教師モデルと複数レベルの能力を持つ教師モデルからなる事前定義された教師アンサンブルから教師モデルをサンプリングし、知識を1対1で学生モデルに伝達する。
GLUEベンチマークの実験結果によると、SKDBERT は BERT$_rm BASE$ モデルのサイズを 40% 削減し、言語理解の99.5% のパフォーマンスを維持し、100%高速である。
論文 参考訳(メタデータ) (2022-11-26T03:18:55Z) - Better Teacher Better Student: Dynamic Prior Knowledge for Knowledge
Distillation [70.92135839545314]
本研究では,教師の持つ特徴の一部を,特徴蒸留前の先行知識として統合した動的事前知識(DPK)を提案する。
DPKは,教員モデルと生徒モデルのパフォーマンスを正に相関させ,より大きな教員を適用することで生徒の精度をさらに高めることができる。
論文 参考訳(メタデータ) (2022-06-13T11:52:13Z) - Confidence-Aware Multi-Teacher Knowledge Distillation [12.938478021855245]
そこで本研究では,教師の予測に対して,基本トラスラベルの助けを借りて,サンプルの信頼性を適応的に割り当てる,信頼性に配慮した多教師知識蒸留(CA-MKD)を提案する。
私たちのCA-MKDは、様々な教師学生アーキテクチャで比較された最先端の手法を一貫して上回ります。
論文 参考訳(メタデータ) (2021-12-30T11:00:49Z) - Learning to Teach with Student Feedback [67.41261090761834]
対話的知識蒸留 (Interactive Knowledge Distillation, IKD) は、教師が生徒のフィードバックから教えることを学ぶことを可能にする。
IKDは教師モデルを訓練し、特定の学生のトレーニングステップごとに特定のソフトターゲットを生成する。
教師と生徒の協調的な最適化は2つの反復的なステップによって達成される。
論文 参考訳(メタデータ) (2021-09-10T03:01:01Z) - One Teacher is Enough? Pre-trained Language Model Distillation from
Multiple Teachers [54.146208195806636]
本稿では,事前学習型言語モデル圧縮のためのMT-BERTという多言語知識蒸留フレームワークを提案する。
MT-BERTは、複数の教師PLMから高品質な学生モデルを訓練できることを示す。
PLMの圧縮におけるMT-BERTの有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2021-06-02T08:42:33Z) - Teachers' perspective on fostering computational thinking through
educational robotics [0.6410282200111983]
創造的問題解決モデル(CCPS)は、教育ロボティクス学習活動の設計を改善するために用いられる。
本研究の目的は,教師によるモデルの有効性を検証することである。
教師は、CCPSモデルはスキルを育成するのに有用であるが、特定の介入方法がCT関連認知過程に与える影響を認識できなかった。
論文 参考訳(メタデータ) (2021-05-11T12:31:44Z) - Reinforced Multi-Teacher Selection for Knowledge Distillation [54.72886763796232]
知識蒸留はモデル圧縮の一般的な方法です。
現在の方法は、蒸留全体の教師モデルに固定重量を割り当てます。
既存のメソッドのほとんどは、すべての教師モデルに等しい重みを割り当てます。
本論文では,学習例の複雑性や生徒モデル能力の違いから,教師モデルとの違いを学習することで,生徒モデルの蒸留性能の向上が期待できることを考察する。
論文 参考訳(メタデータ) (2020-12-11T08:56:39Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。