論文の概要: Modeling MOOC learnflow with Petri net extensions
- arxiv url: http://arxiv.org/abs/2111.04419v1
- Date: Mon, 18 Oct 2021 09:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 04:00:46.851987
- Title: Modeling MOOC learnflow with Petri net extensions
- Title(参考訳): petrinet拡張によるmooc学習フローのモデル化
- Authors: Irina A. Lomazova, Alexey A. Mitsyuk, Aliya M. Sharipova
- Abstract要約: 学習フローを古典的および有色ペトリネットでモデル化する方法を示す。
我々はMOOCにおけるeラーニングをモデル化するための参照データ(PNRD)を用いたemphPetri netを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern higher education takes advantage of MOOC technology. Modeling an
education process of Massive open online courses (MOOCs) as a dynamic and
multi-agent process is one of the challenging tasks. In this paper, Petri net
extensions are investigated in the context of the learnflow modeling. It is
shown how a learnflow can be modeled with classical and Colored Petri nets.
These extensions facilitate modeling distributed and multi-agent processes.
However, existing Petri net extensions do not provide the ability to model an
education process in the context of multi-course programs and adaptive
learning. We propose \emph{Petri nets with reference data} (PNRDs) for modeling
e-learning in MOOCs. PNRDs allow us to represent a model of the education
process in a visual, clear and not overloaded form. Moreover, PNRDs enable us
to display aspects of multi-course programs and dynamic changes in the MOOC
education process. We also show how PNRDs can be used to model online student
collaboration in project-based learning.
- Abstract(参考訳): 現代の高等教育はMOOC技術を利用する。
大規模オープンオンラインコース(MOOC)の教育プロセスを動的かつマルチエージェントなプロセスとしてモデル化することは,課題の1つである。
本稿では,学習フローモデリングの文脈におけるペトリネット拡張について検討する。
学習フローを古典的および有色ペトリネットでモデル化する方法が示されている。
これらの拡張は分散およびマルチエージェントプロセスのモデリングを容易にする。
しかし、既存のペトリネット拡張は、マルチコースプログラムと適応学習の文脈で教育プロセスをモデル化する能力を提供していない。
我々はMOOCにおけるeラーニングをモデル化するための参照データ付きemph{Petri nets (PNRDs)を提案する。
pnrdsは、教育プロセスのモデルを視覚的に、明確で、過負荷ではない形で表現できる。
さらに、PNRDは、MOOC教育プロセスにおけるマルチコースプログラムの側面と動的変化を示すことができる。
また,PNRDをプロジェクトベース学習におけるオンライン学生コラボレーションのモデル化に活用する方法を示す。
関連論文リスト
- Process Modeling With Large Language Models [45.129578769739]
本稿では,大規模言語モデル(LLM)のプロセスモデリングへの統合について検討する。
プロセスモデルの自動生成と反復的改善にLLMを利用するフレームワークを提案する。
予備的な結果は、プロセスモデリングタスクを合理化するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2024-03-12T11:27:47Z) - Model Composition for Multimodal Large Language Models [73.70317850267149]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Delving into Multi-modal Multi-task Foundation Models for Road Scene
Understanding: From Learning Paradigm Perspectives [57.3734614555802]
本稿では,道路シーンに特化して設計されたMM-VUFMの系統解析について述べる。
本研究の目的は,タスク特化モデル,統合マルチモーダルモデル,統合マルチタスクモデル,基礎モデル推進技術など,共通プラクティスの包括的概要を提供することである。
我々は、クローズドループ駆動システム、解釈可能性、エンボディドドライブエージェント、世界モデルなど、重要な課題と今後のトレンドに関する洞察を提供する。
論文 参考訳(メタデータ) (2024-02-05T12:47:09Z) - Unlock the Power: Competitive Distillation for Multi-Modal Large
Language Models [17.25135606956287]
競合型マルチモーダル蒸留フレームワーク(CoMD)は,教師モデルと学生モデル間の双方向フィードバックをキャプチャする。
多様なデータセットを実験的に分析した結果,我々の知識伝達手法は学生モデルの性能を継続的に改善することがわかった。
論文 参考訳(メタデータ) (2023-11-14T14:49:46Z) - TaCA: Upgrading Your Visual Foundation Model with Task-agnostic
Compatible Adapter [21.41170708560114]
視覚基盤モデルに基づくアプリケーションが増えている。
システムのアップグレードを伴う状況では、新しい基盤モデルに適応するために、下流モジュールを再訓練することが不可欠です。
パラメータ効率とタスク非依存のアダプタであるTaCAを導入し,異なる基礎モデル間の互換性を実現する。
論文 参考訳(メタデータ) (2023-06-22T03:00:24Z) - mPLUG-Owl: Modularization Empowers Large Language Models with
Multimodality [55.698502221911944]
mPLUG-Owlは、大規模言語モデル(LLM)にマルチモーダル能力を持たせる訓練パラダイムである。
トレーニングパラダイムは、LLMの助けを借りて視覚知識を学ぶ、画像とテキストの整列のための2段階の手法を含む。
実験の結果,本モデルは既存のマルチモーダルモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-04-27T13:27:01Z) - Large-scale Multi-Modal Pre-trained Models: A Comprehensive Survey [69.03538086844516]
本稿では, 自然言語処理, コンピュータビジョン, 音声処理における従来のディープラーニング, 事前学習の成果を概観することにより, マルチモーダル事前学習の背景を紹介する。
次に,マルチモーダル事前学習モデル(MM-PTM)のタスク定義,課題,メリットを紹介し,データ,目的,ネットワークアーキテクチャ,知識強化事前学習に着目して,MM-PTMについて議論する。
論文 参考訳(メタデータ) (2023-02-20T15:34:03Z) - Reinforced Multi-Teacher Selection for Knowledge Distillation [54.72886763796232]
知識蒸留はモデル圧縮の一般的な方法です。
現在の方法は、蒸留全体の教師モデルに固定重量を割り当てます。
既存のメソッドのほとんどは、すべての教師モデルに等しい重みを割り当てます。
本論文では,学習例の複雑性や生徒モデル能力の違いから,教師モデルとの違いを学習することで,生徒モデルの蒸留性能の向上が期待できることを考察する。
論文 参考訳(メタデータ) (2020-12-11T08:56:39Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。