論文の概要: Teaching for large-scale Reproducibility Verification
- arxiv url: http://arxiv.org/abs/2204.01540v1
- Date: Thu, 31 Mar 2022 15:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:02:47.536223
- Title: Teaching for large-scale Reproducibility Verification
- Title(参考訳): 大規模再現性検証の指導
- Authors: Lars Vilhuber and Hyuk Harry Son and Meredith Welch and David N.
Wasser and Michael Darisse
- Abstract要約: 様々なSTEMや社会科学の学部生は、データ証明と再現可能な手法で訓練されている。
採用、訓練、定期的な活動について詳述する。
- 参考スコア(独自算出の注目度): 0.10499611180329801
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We describe a unique environment in which undergraduate students from various
STEM and social science disciplines are trained in data provenance and
reproducible methods, and then apply that knowledge to real, conditionally
accepted manuscripts and associated replication packages. We describe in detail
the recruitment, training, and regular activities. While the activity is not
part of a regular curriculum, the skills and knowledge taught through explicit
training of reproducible methods and principles, and reinforced through
repeated application in a real-life workflow, contribute to the education of
these undergraduate students, and prepare them for post-graduation jobs and
further studies.
- Abstract(参考訳): 本研究では,様々なSTEMや社会科学の学部生がデータ証明や再現可能な手法で学習し,その知識を現実の条件付き原稿や関連する複製パッケージに適用する,ユニークな環境について述べる。
我々は、採用、訓練、定期的な活動について詳述する。
活動は通常のカリキュラムには含まれていないが、再現可能な方法や原則の明示的な訓練を通じて教えられるスキルや知識は、実生活のワークフローに繰り返し適用することで強化され、これらの学部生の教育に寄与し、後進的な仕事や研究のための準備をする。
関連論文リスト
- Enhancing Spatio-temporal Quantile Forecasting with Curriculum Learning: Lessons Learned [11.164896279040379]
問題時間データ(ST)データのトレーニングモデルは、データ自体の複雑で多様な性質のため、オープンな積み重ねとなる。
モデルの性能が元のSTデータに基づいて直接訓練されることを保証することは困難である。
本稿では,空間的,時間的,定量的な視点を対象とする3種類のカリキュラム学習を取り入れた革新的パラダイムを提案する。
論文 参考訳(メタデータ) (2024-06-18T15:23:10Z) - Explainable Few-shot Knowledge Tracing [48.877979333221326]
本稿では,学生の記録から学生の知識をトラッキングし,自然言語による説明を提供する認知誘導フレームワークを提案する。
3つの広く使われているデータセットによる実験結果から、LLMは競合する深層知識追跡手法に匹敵する、あるいは優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-23T10:07:21Z) - HuCurl: Human-induced Curriculum Discovery [13.960152426268767]
既存の文献では単調なキュリキュラとは対照的に,与えられたモデルやデータセットの最高性能のキュリキュラは非単調であることが示されている。
提案フレームワークは,既存のカリキュラム学習のアプローチを包含し,複数のNLPタスクにまたがってそれらを上回るキュリキュラを発見できる。
論文 参考訳(メタデータ) (2023-07-14T15:41:43Z) - Towards a General Pre-training Framework for Adaptive Learning in MOOCs [37.570119583573955]
異種学習要素を適切に活用した,データ観測と学習スタイル分析に基づく統合フレームワークを提案する。
授業の構造やテキスト,知識は,学生の非逐次学習行動に本質的に整合性があり,モデリングに有用であることがわかった。
論文 参考訳(メタデータ) (2022-07-18T13:18:39Z) - Do Data-based Curricula Work? [0.17188280334580194]
現在の最先端のNLPシステムは、トレーニングに多くの計算リソースを必要とする大規模なニューラルネットワークを使用している。
人間の知識獲得にインスパイアされた研究者は、カリキュラム学習、タスク(タスクベースのカリキュラム)のシークエンシング、トレーニングを容易にするデータセット(データベースのカリキュラム)の順序付けとサンプリングを提案している。
本研究では,BERT や T5 などの大規模現代言語モデルに対するデータに基づくカリキュラム学習のメリットについて検討する。
論文 参考訳(メタデータ) (2021-12-13T09:42:32Z) - Reinforcement Learning with Prototypical Representations [114.35801511501639]
Proto-RLは、プロトタイプ表現を通じて表現学習と探索を結び付ける自己監督型フレームワークである。
これらのプロトタイプは、エージェントの探索経験の要約と同時に、観察を表す基盤としても機能する。
これにより、困難な連続制御タスクのセットで最新の下流ポリシー学習が可能になります。
論文 参考訳(メタデータ) (2021-02-22T18:56:34Z) - Curriculum Learning: A Survey [65.31516318260759]
カリキュラム学習戦略は、機械学習のあらゆる分野で成功している。
我々は,様々な分類基準を考慮して,カリキュラム学習アプローチの分類を手作業で構築する。
集約型クラスタリングアルゴリズムを用いて,カリキュラム学習手法の階層木を構築する。
論文 参考訳(メタデータ) (2021-01-25T20:08:32Z) - When Do Curricula Work? [26.072472732516335]
規則学習はI. I. I. D. トレーニングの改善として提案されている。
我々は、カリキュラム、反カリキュラム、ランダムカリキュラムの3種類の学習にまたがる何千もの注文実験を行った。
キュリキュラは限界的な利点しか持たず、ランダムに順序づけられたサンプルはキュリキュラや反キュリキュラと同等以上の性能を示す。
論文 参考訳(メタデータ) (2020-12-05T19:41:30Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Meta-Reinforcement Learning Robust to Distributional Shift via Model
Identification and Experience Relabeling [126.69933134648541]
本稿では,テスト時にアウト・オブ・ディストリビューション・タスクに直面した場合に,効率よく外挿できるメタ強化学習アルゴリズムを提案する。
我々の手法は単純な洞察に基づいており、動的モデルが非政治データに効率的かつ一貫して適応可能であることを認識している。
論文 参考訳(メタデータ) (2020-06-12T13:34:46Z) - Privileged Information Dropout in Reinforcement Learning [56.82218103971113]
トレーニング中に特権情報を使用することで、機械学習システムのサンプル効率とパフォーマンスを向上させることができる。
本研究では,価値に基づく強化学習アルゴリズムとポリシーに基づく強化学習アルゴリズムに等しく適用可能なプライヴィレグ情報ドロップアウト(pid)について検討する。
論文 参考訳(メタデータ) (2020-05-19T05:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。