論文の概要: Dropout Prediction over Weeks in MOOCs via Interpretable Multi-Layer
Representation Learning
- arxiv url: http://arxiv.org/abs/2002.01598v1
- Date: Wed, 5 Feb 2020 01:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 20:51:48.969084
- Title: Dropout Prediction over Weeks in MOOCs via Interpretable Multi-Layer
Representation Learning
- Title(参考訳): 解釈可能な多層表現学習によるMOOCにおける週ごとの降雨予測
- Authors: Byungsoo Jeon, Namyong Park, Seojin Bang
- Abstract要約: 本論文は,次の週のクリックストリームデータから,学習者が次の週中に退学するかどうかを予測することを目的とする。
本稿では分岐境界(BB)アルゴリズムに基づく多層表現学習ソリューションを提案する。
本研究では,Courseraデータを用いた実験において,より複雑なタスク固有モデルに類似した単純なモデルの実行が可能な表現を学習していることを示す。
- 参考スコア(独自算出の注目度): 6.368257863961961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Massive Open Online Courses (MOOCs) have become popular platforms for online
learning. While MOOCs enable students to study at their own pace, this
flexibility makes it easy for students to drop out of class. In this paper, our
goal is to predict if a learner is going to drop out within the next week,
given clickstream data for the current week. To this end, we present a
multi-layer representation learning solution based on branch and bound (BB)
algorithm, which learns from low-level clickstreams in an unsupervised manner,
produces interpretable results, and avoids manual feature engineering. In
experiments on Coursera data, we show that our model learns a representation
that allows a simple model to perform similarly well to more complex,
task-specific models, and how the BB algorithm enables interpretable results.
In our analysis of the observed limitations, we discuss promising future
directions.
- Abstract(参考訳): 大規模オープンオンラインコース(MOOC)はオンライン学習の人気のあるプラットフォームとなっている。
MOOCは、生徒が自分のペースで勉強できるが、この柔軟性により、生徒がクラスから脱落しやすくなる。
本稿では,次の週のクリックストリームデータから,学習者が次の週以内に退学するかどうかを予測することを目的とする。
そこで本研究では,非教師付きで低レベルのクリックストリームから学習し,解釈可能な結果を生成し,手動の特徴工学を回避する,分岐境界(BB)アルゴリズムに基づく多層表現学習ソリューションを提案する。
courseraデータを用いた実験では、単純なモデルがより複雑なタスク固有のモデルと同等に振る舞うことができる表現を学習し、bbアルゴリズムがどのように解釈可能な結果を得るかを示す。
観察した限界の分析では,今後の方向性について検討する。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Enhancing the Performance of Automated Grade Prediction in MOOC using
Graph Representation Learning [3.4882560718166626]
大規模オープンオンラインコース(MOOCs)は、オンライン学習において急速に成長する現象として大きな注目を集めている。
現在の自動評価アプローチでは、下流タスクに関わるさまざまなエンティティ間の構造的リンクを見落としている。
我々は、大規模なMOOCデータセットのためのユニークな知識グラフを構築し、研究コミュニティに公開します。
論文 参考訳(メタデータ) (2023-10-18T19:27:39Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Active Learning in CNNs via Expected Improvement Maximization [2.0305676256390934]
また,Dropout-based IMprOvementS (DEIMOS) は,能動的学習に対する柔軟で計算効率のよいアプローチである。
以上の結果から,DIMOSは複数の回帰・分類タスクにおいて,既存のベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-11-27T22:06:52Z) - Generative Adversarial Simulator [2.3986080077861787]
強化学習における知識蒸留へのシミュレータフリーアプローチを提案する。
重要な課題は、学生に与えられた行動に対応する事例の多様さを学習させることである。
これは教師と学生の政策の間のシミュレータフリーな知識蒸留の初めての実演である。
論文 参考訳(メタデータ) (2020-11-23T15:31:12Z) - Dropout Prediction over Weeks in MOOCs by Learning Representations of
Clicks and Videos [6.030785848148107]
ビデオの表現と動画とクリックの相関関係を学習する手法を開発した。
その結果、ビデオのモデリングとクリックとの相関は、ドロップアウト予測において統計的に有意な改善をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-02-05T19:10:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。