論文の概要: Towards the design of model-based means and methods to characterize and diagnose teachers' digital maturity
- arxiv url: http://arxiv.org/abs/2411.02025v1
- Date: Mon, 04 Nov 2024 12:21:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:49:42.755579
- Title: Towards the design of model-based means and methods to characterize and diagnose teachers' digital maturity
- Title(参考訳): 教師のデジタル成熟度を特徴付けるモデルベース手法と方法の設計に向けて
- Authors: Christine Michel, Laëtitia Pierrot,
- Abstract要約: 本稿では、教師のデジタル成熟度モデルを組み合わせて、診断ツールや手法の設計に使用できる統一版を作成する方法について検討する。
モデルとそれらの構成次元が成熟度の決定にどのように貢献するかを解析した。
- 参考スコア(独自算出の注目度): 0.3683202928838613
- License:
- Abstract: This article examines how models of teacher digital maturity can be combined to produce a unified version that can be used to design diagnostic tools and methods. 11 models applicable to the field of compulsory education were identified through a literature review. The models and how their constituent dimensions contribute to the determination of maturity levels were analyzed. The summary highlights the diversity of the dimensions used and the fact that digital maturity is only partially taken into account. What's more, most of these models focus on the most recent maturity levels associated with innovative or pioneering teachers. The models tend to exclude teachers who are not digital users or who have a low level of digital use, but who are present in the French context. In the final part of the article, a proposal for a unified model of teachers' digital maturity, MUME, which addresses these two issues, is described, together with the preliminary results of a study aimed at designing a diagnostic method.
- Abstract(参考訳): 本稿では、教師のデジタル成熟度モデルを組み合わせて、診断ツールや手法の設計に使用できる統一版を作成する方法について検討する。
義務教育の分野に適用可能な11のモデルを文献レビューにより同定した。
モデルとそれらの構成次元が成熟度の決定にどのように貢献するかを解析した。
要約では、使用される次元の多様性と、デジタル成熟度が部分的に考慮されているという事実を強調している。
さらに、これらのモデルのほとんどは、革新的な、または先駆的な教師に関連する最新の成熟度レベルに焦点を当てています。
モデルは、デジタルユーザではない教師や、低いレベルのデジタル使用を持つ教師を排除しがちだが、フランスの文脈に存在している教師を除外する傾向にある。
この2つの課題に対処する教師のデジタル成熟度統一モデルMUMEの提案と,診断手法の設計を目的とした研究の予備的成果について述べる。
関連論文リスト
- Dual-Teacher Ensemble Models with Double-Copy-Paste for 3D Semi-Supervised Medical Image Segmentation [31.460549289419923]
半教師付き学習(SSL)技術は、3次元医用画像セグメンテーションの高ラベリングコストに対処する。
本稿では,サンプルの特性に基づいて異なるアンサンブル法を選択するSSE(Staged Selective Ensemble)モジュールを提案する。
3次元医用画像分割作業における提案手法の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2024-10-15T11:23:15Z) - Exploring and Enhancing the Transfer of Distribution in Knowledge Distillation for Autoregressive Language Models [62.5501109475725]
知識蒸留(KD)は、より小さな学生モデルを模倣するように訓練することで、大きな教師モデルを圧縮する技術である。
本稿では、教師ネットワークが小さなオンラインモジュールを統合し、学生モデルと同時学習するオンライン知識蒸留(OKD)について紹介する。
OKDは、様々なモデルアーキテクチャやサイズにおけるリードメソッドのパフォーマンスを達成または超え、トレーニング時間を最大4倍に短縮する。
論文 参考訳(メタデータ) (2024-09-19T07:05:26Z) - ComKD-CLIP: Comprehensive Knowledge Distillation for Contrastive Language-Image Pre-traning Model [49.587821411012705]
コントラスト言語画像前処理モデルのための包括的知識蒸留法ComKD-CLIPを提案する。
大規模な教師CLIPモデルからより小さな学生モデルに知識を抽出し、パラメータを著しく減らして同等のパフォーマンスを確保する。
EduAttentionは教師モデルで抽出したテキスト特徴と学生モデルで抽出した画像特徴との相互関係を探索する。
論文 参考訳(メタデータ) (2024-08-08T01:12:21Z) - Alternate Diverse Teaching for Semi-supervised Medical Image Segmentation [62.021828104757745]
そこで我々は,教師-学生の枠組みにおける多様な教育手法であるAD-MTを提案する。
一人の生徒モデルと2つの訓練不可能な教師モデルがあり、それは定期的に、ランダムに、別の方法で、モーメントを更新する。
論文 参考訳(メタデータ) (2023-11-29T02:44:54Z) - Periodically Exchange Teacher-Student for Source-Free Object Detection [7.222926042027062]
Source-free Object Detection (SFOD) は、ソースドメインデータがない場合に、未ラベルのターゲットドメインデータにソース検出器を適用することを目的としている。
ほとんどのSFOD法は、学生モデルを1つの教師モデルのみで指導する平均教師(MT)フレームワークを用いて、同じ自己学習パラダイムに従っている。
静的教師, 動的教師, 学生モデルからなる複数教師の枠組みを導入する, シンプルながら斬新な手法であるPETS法を提案する。
論文 参考訳(メタデータ) (2023-11-23T11:30:54Z) - Demystifying Digital Twin Buzzword: A Novel Generic Evaluation Model [0.0]
デジタルツイン(DT)開発の人気が高まっているにもかかわらず、DTの重要な概念に対する共通理解と定義が欠如している。
本稿では,デジタル双生児の成熟度を評価するための4次元評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-21T19:56:26Z) - Improving Neural Topic Models with Wasserstein Knowledge Distillation [0.8962460460173959]
本稿では,トピックの品質を損なうことなく,文脈化されたトピックモデルを圧縮する知識蒸留フレームワークを提案する。
実験により, 知識蒸留の訓練を受けた学生は, 本来の学生モデルよりも, トピックコヒーレンスをはるかに高い精度で達成できることがわかった。
論文 参考訳(メタデータ) (2023-03-27T16:07:44Z) - EmbedDistill: A Geometric Knowledge Distillation for Information
Retrieval [83.79667141681418]
大規模なニューラルモデル(トランスフォーマーなど)は、情報検索(IR)のための最先端のパフォーマンスを達成する
本研究では,大規模教師モデルで学習したクエリとドキュメント間の相対的幾何を利用した新しい蒸留手法を提案する。
提案手法は, 両エンコーダ (DE) とクロスエンコーダ (CE) の2種類の教師モデルから, 95~97%の教師性能を維持できる1/10の非対称な学生への蒸留に成功した。
論文 参考訳(メタデータ) (2023-01-27T22:04:37Z) - Digital Editions as Distant Supervision for Layout Analysis of Printed
Books [76.29918490722902]
本稿では,この意味的マークアップを,レイアウト解析モデルのトレーニングと評価のための遠隔監視として利用する手法について述べる。
DTA(Deutsches Textarchiv)の50万ページにわたるモデルアーキテクチャの実験では、これらの領域レベルの評価手法と画素レベルのメトリクスとワードレベルのメトリクスとの高い相関性を見出した。
自己学習による精度向上の可能性と、DTAで訓練されたモデルが他の歴史書に一般化できる可能性について論じる。
論文 参考訳(メタデータ) (2021-12-23T16:51:53Z) - Reinforced Multi-Teacher Selection for Knowledge Distillation [54.72886763796232]
知識蒸留はモデル圧縮の一般的な方法です。
現在の方法は、蒸留全体の教師モデルに固定重量を割り当てます。
既存のメソッドのほとんどは、すべての教師モデルに等しい重みを割り当てます。
本論文では,学習例の複雑性や生徒モデル能力の違いから,教師モデルとの違いを学習することで,生徒モデルの蒸留性能の向上が期待できることを考察する。
論文 参考訳(メタデータ) (2020-12-11T08:56:39Z) - MED-TEX: Transferring and Explaining Knowledge with Less Data from
Pretrained Medical Imaging Models [38.12462659279648]
小学生モデルは、厄介な予習教師モデルから知識を蒸留することにより、少ないデータで学習される。
教師モデルの予測に重要な入力領域を強調するために、説明モジュールを導入する。
本フレームワークは,基礎データセットの最先端手法と比較して,知識蒸留とモデル解釈のタスクに優れる。
論文 参考訳(メタデータ) (2020-08-06T11:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。