論文の概要: Outcome-Based Education: Evaluating Students' Perspectives Using Transformer
- arxiv url: http://arxiv.org/abs/2506.17223v1
- Date: Tue, 08 Apr 2025 04:46:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.251686
- Title: Outcome-Based Education: Evaluating Students' Perspectives Using Transformer
- Title(参考訳): アウトカムベース教育 : 変圧器を用いた生徒の視点評価
- Authors: Shuvra Smaran Das, Anirban Saha Anik, Md Kishor Morol, Mohammad Sakib Mahmood,
- Abstract要約: Outcome-Based Education (OBE)は、学生中心の学習を通じて特定の能力の発展を強調する。
本研究では、学生のフィードバックを含むNLPデータセットを分析するために、OBEの重要性を概観し、トランスフォーマーベースのモデル、特にDistilBERTを実装した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Outcome-Based Education (OBE) emphasizes the development of specific competencies through student-centered learning. In this study, we reviewed the importance of OBE and implemented transformer-based models, particularly DistilBERT, to analyze an NLP dataset that includes student feedback. Our objective is to assess and improve educational outcomes. Our approach is better than other machine learning models because it uses the transformer's deep understanding of language context to classify sentiment better, giving better results across a wider range of matrices. Our work directly contributes to OBE's goal of achieving measurable outcomes by facilitating the identification of patterns in student learning experiences. We have also applied LIME (local interpretable model-agnostic explanations) to make sure that model predictions are clear. This gives us understandable information about how key terms affect sentiment. Our findings indicate that the combination of transformer models and LIME explanations results in a strong and straightforward framework for analyzing student feedback. This aligns more closely with the principles of OBE and ensures the improvement of educational practices through data-driven insights.
- Abstract(参考訳): Outcome-Based Education (OBE)は、学生中心の学習を通じて特定の能力の発展を強調する。
本研究では、学生のフィードバックを含むNLPデータセットを分析するために、OBEの重要性を概観し、トランスフォーマーベースのモデル、特にDistilBERTを実装した。
我々の目標は、教育成果を評価し、改善することである。
私たちのアプローチは他の機械学習モデルよりも優れているのは、トランスフォーマーの言語コンテキストの深い理解を使って感情をよりよく分類し、より広い範囲の行列でより良い結果をもたらすからです。
我々の研究は、学生の学習経験におけるパターンの識別を容易にすることによって、測定可能な成果を達成するというOBEの目標に直接貢献する。
また、LIME(ローカル解釈可能なモデルに依存しない説明)を適用し、モデル予測が明確であることを確認する。
これにより、重要な用語が感情にどう影響するか、理解できる情報が得られます。
以上より, トランスフォーマーモデルとLIME説明の組み合わせは, 学生のフィードバックを解析するための強力な, 直接的な枠組みとなることが示唆された。
これはOBEの原則とより密接に一致し、データ駆動の洞察を通じて教育実践の改善を保証する。
関連論文リスト
- LLMs as Educational Analysts: Transforming Multimodal Data Traces into Actionable Reading Assessment Reports [6.523137821124204]
本研究では,多モーダルデータを用いた意味的読解の導出について検討する。
我々は、異なる読取行動パターンを識別するために教師なし学習技術を用いる。
大規模言語モデル(LLM)は、派生した情報を教育者のための実行可能なレポートに合成する。
論文 参考訳(メタデータ) (2025-03-03T22:34:08Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Learning by Self-Explaining [23.420673675343266]
我々は、自己説明による学習(LSX)と呼ばれる画像分類の文脈において、新しいワークフローを導入する。
LSXは、自己修復型AIと人間誘導型説明機械学習の側面を利用する。
本結果は,自己説明による学習による改善を,いくつかのレベルで示すものである。
論文 参考訳(メタデータ) (2023-09-15T13:41:57Z) - From Mimicking to Integrating: Knowledge Integration for Pre-Trained
Language Models [55.137869702763375]
本稿では,新しいPLM再利用パラダイムであるKnowledge Integration(KI)について検討する。
KIは,異なる分類問題に特化している教師-PLMの知識を,多種多様な学生モデルにマージすることを目的としている。
次に,モデル不確かさを意識した知識統合(MUKI)フレームワークを設計し,学生の黄金の監督を回復する。
論文 参考訳(メタデータ) (2022-10-11T07:59:08Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。