論文の概要: Incremental Knowledge Tracing from Multiple Schools
- arxiv url: http://arxiv.org/abs/2201.06941v1
- Date: Fri, 7 Jan 2022 10:07:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-23 18:14:41.538870
- Title: Incremental Knowledge Tracing from Multiple Schools
- Title(参考訳): 複数の学校からの知識の漸進的追跡
- Authors: Sujanya Suresh, Savitha Ramasamy, P.N. Suganthan, Cheryl Sze Yin Wong
- Abstract要約: 現在の知識追跡モデルは、複数の学校から収集された広範なデータに基づいて構築されている。
データプライバシとPDPAポリシのため、すべての学校から学習者のデータをプールすることは不可能です。
本稿では,各学校における学習者のデータのプライバシーを維持しつつ,知識追跡モデルの構築の実現可能性について検討する。
- 参考スコア(独自算出の注目度): 4.6703775982068185
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Knowledge tracing is the task of predicting a learner's future performance
based on the history of the learner's performance. Current knowledge tracing
models are built based on an extensive set of data that are collected from
multiple schools. However, it is impossible to pool learner's data from all
schools, due to data privacy and PDPA policies. Hence, this paper explores the
feasibility of building knowledge tracing models while preserving the privacy
of learners' data within their respective schools. This study is conducted
using part of the ASSISTment 2009 dataset, with data from multiple schools
being treated as separate tasks in a continual learning framework. The results
show that learning sequentially with the Self Attentive Knowledge Tracing
(SAKT) algorithm is able to achieve considerably similar performance to that of
pooling all the data together.
- Abstract(参考訳): 知識追跡とは,学習者のパフォーマンス履歴に基づいて,学習者の将来のパフォーマンスを予測するタスクである。
現在の知識追跡モデルは、複数の学校から収集された広範なデータに基づいて構築されている。
しかし、データプライバシーとpdpaポリシーのため、すべての学校で学習者のデータをプールすることは不可能である。
そこで本稿では,各学校における学習者のデータのプライバシーを保ちつつ,知識追跡モデルの構築可能性について検討する。
本研究は、ASSISTment 2009データセットの一部を用いて実施され、複数の学校からのデータを連続学習フレームワークで個別のタスクとして扱う。
その結果,SAKT(Self Attentive Knowledge Tracing)アルゴリズムを用いて逐次学習することで,すべてのデータをまとめる手法とかなり類似した性能が得られることがわかった。
関連論文リスト
- Formality is Favored: Unraveling the Learning Preferences of Large Language Models on Data with Conflicting Knowledge [55.65162959527848]
大規模言語モデルは、多くの知識集約的なタスクにおいて優れたパフォーマンスを示している。
しかし、事前学習データには誤解を招く傾向があり、矛盾する情報も含まれている。
本研究では,LLMの学習嗜好を,矛盾する知識を持つデータに対して体系的に分析する。
論文 参考訳(メタデータ) (2024-10-07T06:49:41Z) - Private Knowledge Sharing in Distributed Learning: A Survey [50.51431815732716]
人工知能の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
現代のデータ駆動サービスは、分散知識エンティティを結果に統合するために開発されています。
論文 参考訳(メタデータ) (2024-02-08T07:18:23Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - ACIL: Analytic Class-Incremental Learning with Absolute Memorization and
Privacy Protection [24.971575257217715]
クラス増分学習(CIL)は、段階的に異なるクラスのトレーニングデータを持つ分類モデルを学習する。
線形学習の定式化に着想を得て,過去の知識を絶対記憶した分析クラス増分学習(ACIL)を提案する。
論文 参考訳(メタデータ) (2022-05-30T08:41:56Z) - Process-BERT: A Framework for Representation Learning on Educational
Process Data [68.8204255655161]
本稿では,教育プロセスデータの表現を学習するためのフレームワークを提案する。
我々のフレームワークは、BERT型の目的を用いて、シーケンシャルなプロセスデータから表現を学習する事前学習ステップで構成されています。
当社のフレームワークは,2019年国のレポートカードデータマイニングコンペティションデータセットに適用しています。
論文 参考訳(メタデータ) (2022-04-28T16:07:28Z) - Locally Differentially Private Distributed Deep Learning via Knowledge
Distillation [11.000499414131328]
ローカルな差分プライバシーと知識蒸留による分散ディープラーニングフレームワーク LDP-DL を提案する。
LDP-DLは、プライバシ予算とモデルの正確性という点で、他社よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-07T06:43:39Z) - DCUR: Data Curriculum for Teaching via Samples with Reinforcement
Learning [6.9884912034790405]
本稿では,オンライン深層学習を用いた教員教育を行うためのフレームワーク,Data CUrriculum for Reinforcement Learning (DCUR)を提案する。
そして、オフラインのRLを実行するか、少量の自己生成データと組み合わせて教師データを使用することで学習する。
論文 参考訳(メタデータ) (2021-09-15T15:39:46Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Towards Scheduling Federated Deep Learning using Meta-Gradients for
Inter-Hospital Learning [15.005982599243318]
複数の病院データセンターから抽出した患者データを利用して、患者のプライバシを犠牲にすることなく機械学習モデルをトレーニングする。
本研究では,学生と教師の連携によるスケジューリングアルゴリズムを開発した。
メタグラディエントを用いてトレーニングされたスケジューラは、トレーニングを効果的に編成し、その結果、多様なデータセット上で機械学習モデルをトレーニングできることが示される。
論文 参考訳(メタデータ) (2021-07-04T18:45:58Z) - Private Dataset Generation Using Privacy Preserving Collaborative
Learning [0.0]
この研究は、エッジで機械学習モデルをトレーニングするためのプライバシ保護のFedNNフレームワークを導入している。
MNISTデータセットを用いたシミュレーション結果は,フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-04-28T15:35:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。