論文の概要: An Adapted Cascade Model to Scale Primary School Digital Education
Curricular Reforms and Teacher Professional Development Programs
- arxiv url: http://arxiv.org/abs/2306.02751v1
- Date: Mon, 5 Jun 2023 10:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 15:52:16.985789
- Title: An Adapted Cascade Model to Scale Primary School Digital Education
Curricular Reforms and Teacher Professional Development Programs
- Title(参考訳): 小学校デジタル教育カリキュラム改革のスケール化と教員養成プログラムのための適応型カスケードモデル
- Authors: Laila El-Hamamsy, Emilie-Charlotte Monnier, Sunny Avry, Fr\'ed\'erique
Chessel-Lazzarotto, Gr\'egory Li\'egeois, Barbara Bruno, Jessica Dehler
Zufferey, Francesco Mondada
- Abstract要約: 多くの国は、十分な訓練を受けた教師がいないため、すべてのK-12学生にデジタル教育(DE)を効果的に導入するのに苦労している。
本稿では,小学校のDEC-PDプログラムを管理領域全体に展開するカスケードモデルを提案する。
モデルは、(i)地域の活発な教員である教員養成者に依存し、(ii)教師訓練プログラムを操縦し、成人訓練者およびD関連能力を取得する専門家と、(iii)展開を通じて専門家の支援を受ける。
- 参考スコア(独自算出の注目度): 0.7519759698192587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many countries struggle to effectively introduce Digital Education (DE) to
all K-12 students as they lack adequately trained teachers. While cascade
models of in-service teacher-professional development (PD) can rapidly deploy
PD-programs through multiple levels of trainers to reach all teachers, they
suffer from many limitations and are often ineffective. We therefore propose an
adapted cascade model to deploy a primary school DE teacher-PD program
throughout an administrative region. The model relies on teacher-trainers who
(i) are active teachers in the region, (ii) have a prolonged trainer-PD with
experts who piloted the teacher-PD program to acquire adult-trainer and
DE-related competences, and (iii) are supported by the experts throughout the
deployment. To validate the deployment model we used data from 14
teacher-trainers, the 700 teachers they trained, and 350 teachers trained by
experts. The teacher-trainer findings demonstrate that the adapted cascade
model effectively addresses most cascade models' limitations. The
teacher-related findings further validate the adapted cascade model in terms of
perception, motivation and adoption which are at least equivalent to those
obtained with the experts. To conclude, the adapted cascade model is an
effective means of spreading primary school DE PD-programs at a large scale and
can be used in other DE reforms.
- Abstract(参考訳): 多くの国は、十分な訓練を受けた教師がいないため、すべてのK-12学生にデジタル教育(DE)を効果的に導入するのに苦労している。
pd(in-service teacher-professional development)のカスケードモデルは、複数のレベルのトレーナーにpdプログラムを迅速に展開して、すべての教師にリーチすることができるが、多くの制限があり、しばしば非効率である。
そこで本稿では,小学校のDEC-PDプログラムを管理領域全体に展開するカスケードモデルを提案する。
モデルは教師と研修生に頼り
(i)この地域で活動的な教師である。
(二)教員養成課程を修了し、成年研修及びD関連能力の取得を図った専門職の研修生。
(iii) デプロイメント全体を通じて専門家がサポートします。
デプロイモデルを検証するために、14人の教師訓練者、700人の教師、350人の教師を専門家によって訓練した。
教師訓練者の知見は,適応型カスケードモデルがほとんどのカスケードモデルの限界に効果的に対応していることを示している。
教師関係の知見は、適応されたカスケードモデルを、少なくとも専門家によって得られたものと同等の知覚、モチベーション、導入の観点からさらに検証する。
結論として、適応型カスケードモデルは小学校のde pdプログラムを大規模に広める効果的な手段であり、他のde改革にも利用できる。
関連論文リスト
- Speculative Knowledge Distillation: Bridging the Teacher-Student Gap Through Interleaved Sampling [81.00825302340984]
本研究では,高品質なトレーニングデータを生成するために,投機的知識蒸留(SKD)を導入する。
SKDでは、学生はトークンを提案し、教師はそれ自身の分布に基づいて低いランクのトークンを置き換える。
翻訳,要約,数学,指示文など,各種テキスト生成タスクにおけるSKDの評価を行った。
論文 参考訳(メタデータ) (2024-10-15T06:51:25Z) - Exploring and Enhancing the Transfer of Distribution in Knowledge Distillation for Autoregressive Language Models [62.5501109475725]
知識蒸留(KD)は、より小さな学生モデルを模倣するように訓練することで、大きな教師モデルを圧縮する技術である。
本稿では、教師ネットワークが小さなオンラインモジュールを統合し、学生モデルと同時学習するオンライン知識蒸留(OKD)について紹介する。
OKDは、様々なモデルアーキテクチャやサイズにおけるリードメソッドのパフォーマンスを達成または超え、トレーニング時間を最大4倍に短縮する。
論文 参考訳(メタデータ) (2024-09-19T07:05:26Z) - Generalizing Teacher Networks for Effective Knowledge Distillation Across Student Architectures [4.960025399247103]
Generic Teacher Network (GTN) は、知識を有限のアーキテクチャプールからサンプリングされた任意の学生モデルに効果的に伝達できる汎用的な教師を作成するための、一発のKD-awareトレーニングである。
本手法は, 総合的なKD効果の向上と, プール内の生徒間での総合教師のトレーニングコストの最小化を両立させる。
論文 参考訳(メタデータ) (2024-07-22T20:34:00Z) - Better Teacher Better Student: Dynamic Prior Knowledge for Knowledge
Distillation [70.92135839545314]
本研究では,教師の持つ特徴の一部を,特徴蒸留前の先行知識として統合した動的事前知識(DPK)を提案する。
DPKは,教員モデルと生徒モデルのパフォーマンスを正に相関させ,より大きな教員を適用することで生徒の精度をさらに高めることができる。
論文 参考訳(メタデータ) (2022-06-13T11:52:13Z) - Confidence-Aware Multi-Teacher Knowledge Distillation [12.938478021855245]
そこで本研究では,教師の予測に対して,基本トラスラベルの助けを借りて,サンプルの信頼性を適応的に割り当てる,信頼性に配慮した多教師知識蒸留(CA-MKD)を提案する。
私たちのCA-MKDは、様々な教師学生アーキテクチャで比較された最先端の手法を一貫して上回ります。
論文 参考訳(メタデータ) (2021-12-30T11:00:49Z) - Learning to Teach with Student Feedback [67.41261090761834]
対話的知識蒸留 (Interactive Knowledge Distillation, IKD) は、教師が生徒のフィードバックから教えることを学ぶことを可能にする。
IKDは教師モデルを訓練し、特定の学生のトレーニングステップごとに特定のソフトターゲットを生成する。
教師と生徒の協調的な最適化は2つの反復的なステップによって達成される。
論文 参考訳(メタデータ) (2021-09-10T03:01:01Z) - One Teacher is Enough? Pre-trained Language Model Distillation from
Multiple Teachers [54.146208195806636]
本稿では,事前学習型言語モデル圧縮のためのMT-BERTという多言語知識蒸留フレームワークを提案する。
MT-BERTは、複数の教師PLMから高品質な学生モデルを訓練できることを示す。
PLMの圧縮におけるMT-BERTの有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2021-06-02T08:42:33Z) - Reinforced Multi-Teacher Selection for Knowledge Distillation [54.72886763796232]
知識蒸留はモデル圧縮の一般的な方法です。
現在の方法は、蒸留全体の教師モデルに固定重量を割り当てます。
既存のメソッドのほとんどは、すべての教師モデルに等しい重みを割り当てます。
本論文では,学習例の複雑性や生徒モデル能力の違いから,教師モデルとの違いを学習することで,生徒モデルの蒸留性能の向上が期待できることを考察する。
論文 参考訳(メタデータ) (2020-12-11T08:56:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。