論文の概要: BloomNet: A Robust Transformer based model for Bloom's Learning Outcome
Classification
- arxiv url: http://arxiv.org/abs/2108.07249v1
- Date: Mon, 16 Aug 2021 17:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 16:47:44.510029
- Title: BloomNet: A Robust Transformer based model for Bloom's Learning Outcome
Classification
- Title(参考訳): bloomnet:bloomの学習結果分類のための頑健なトランスフォーマーベースモデル
- Authors: Abdul Waheed, Muskan Goyal, Nimisha Mittal, Deepak Gupta, Ashish
Khanna, Moolchand Sharma
- Abstract要約: ブルーム分類学(Bloom taxonomy)は、学習目標を認知、感情、精神運動の3つのレベルに分類するパラダイムである。
コース学習結果(CLO)を分類するために,言語情報と意味情報をキャプチャする,BloomNetというトランスフォーマーベースモデルを提案する。
- 参考スコア(独自算出の注目度): 2.8014992300800103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bloom taxonomy is a common paradigm for categorizing educational learning
objectives into three learning levels: cognitive, affective, and psychomotor.
For the optimization of educational programs, it is crucial to design course
learning outcomes (CLOs) according to the different cognitive levels of Bloom
Taxonomy. Usually, administrators of the institutions manually complete the
tedious work of mapping CLOs and examination questions to Bloom taxonomy
levels. To address this issue, we propose a transformer-based model named
BloomNet that captures linguistic as well semantic information to classify the
course learning outcomes (CLOs). We compare BloomNet with a diverse set of
basic as well as strong baselines and we observe that our model performs better
than all the experimented baselines. Further, we also test the generalization
capability of BloomNet by evaluating it on different distributions which our
model does not encounter during training and we observe that our model is less
susceptible to distribution shift compared to the other considered models. We
support our findings by performing extensive result analysis. In ablation study
we observe that on explicitly encapsulating the linguistic information along
with semantic information improves the model on IID (independent and
identically distributed) performance as well as OOD (out-of-distribution)
generalization capability.
- Abstract(参考訳): ブルーム分類学は、教育学習目標を認知、感情、精神運動の3つのレベルに分類する共通のパラダイムである。
教育プログラムの最適化のためには、ブルーム分類の認知レベルに応じてコース学習結果(CLO)を設計することが重要である。
通常、機関の管理者は、CLOと試験質問をブルーム分類レベルにマッピングする面倒な作業を手作業で完了します。
そこで本研究では,コース学習結果(clos)を分類するために,言語情報だけでなく意味情報もキャプチャするブルームネットというトランスフォーマーモデルを提案する。
bloomnetをさまざまな基本セットと強力なベースラインと比較し、実験されたすべてのベースラインよりも性能が良いことを観察した。
さらに,我々のモデルがトレーニング中に遭遇しない異なる分布について評価することで,ブルームネットの一般化能力をテストし,他のモデルと比較して分布シフトの影響を受けにくいことを観察した。
広範な結果分析を行うことで,本研究の成果を裏付ける。
Ablation studyでは,意味情報とともに言語情報を明示的にカプセル化することで,OOD(out-of-distriion)一般化能力とともに,IDD(independent and samely distributed)性能のモデルを改善することが観察された。
関連論文リスト
- Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Globally Interpretable Graph Learning via Distribution Matching [12.885580925389352]
我々は、まだ十分に研究されていない重要な質問に答えることを目指している。グラフ学習手順のグローバルな解釈を提供するには、どうすればよいのか?
我々は,この問題を,学習過程を支配する高レベルかつ人間の知能なパターンを蒸留することを目的とした,グローバルな解釈可能なグラフ学習として定式化する。
本稿では,解釈に基づいて学習したモデルの忠実度を評価するために,新しいモデル忠実度尺度を提案する。
論文 参考訳(メタデータ) (2023-06-18T00:50:36Z) - Entailment as Robust Self-Learner [14.86757876218415]
我々は、複数の異なるNLUタスクを文脈的エンターテイメントとして定式化するプロンプト戦略を設計する。
自己学習における擬似ラベル品質向上のための簡易擬似ラベル編集(SimPLE)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T18:41:23Z) - On the Compositional Generalization Gap of In-Context Learning [73.09193595292233]
In-distriion (ID) と Out-of-distriion (OOD) の相違について考察する。
我々は,3つの意味解析データセットを用いて,OPT,BLOOM,CodeGen,Codexの4つのモデルファミリを評価する。
論文 参考訳(メタデータ) (2022-11-15T19:56:37Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - MonaCoBERT: Monotonic attention based ConvBERT for Knowledge Tracing [3.187381965457262]
知識追跡は、過去のパフォーマンスデータセットに基づいて、学生の将来のパフォーマンスを予測する研究分野である。
MonaCoBERTは、ほとんどのベンチマークデータセットで最高のパフォーマンスを達成し、大きな解釈性を持つ。
論文 参考訳(メタデータ) (2022-08-19T00:43:47Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Improving Label Quality by Jointly Modeling Items and Annotators [68.8204255655161]
雑音アノテータから基底真理ラベルを学習するための完全ベイズ的枠組みを提案する。
我々のフレームワークは、ラベル分布上の生成的ベイズソフトクラスタリングモデルを古典的なDavidとSkeneのジョイントアノテータデータモデルに分解することでスケーラビリティを保証する。
論文 参考訳(メタデータ) (2021-06-20T02:15:20Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。