論文の概要: Automatic tagging of knowledge points for K12 math problems
- arxiv url: http://arxiv.org/abs/2208.09867v1
- Date: Sun, 21 Aug 2022 11:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:06:50.453746
- Title: Automatic tagging of knowledge points for K12 math problems
- Title(参考訳): K12数学問題に対する知識点の自動タグ付け
- Authors: Xiaolu Wang, Ziqi Ding, Liangyu Chen
- Abstract要約: 数学問題に対する知識点の自動タグ付けに関する研究はほとんどない。
数学のテキストは一般的なテキストよりも複雑な構造と意味を持っている。
このモデルは、一般的なドメインにおけるテキスト分類技術と、数学テキストのユニークな特徴を組み合わせたものである。
- 参考スコア(独自算出の注目度): 3.703920945313331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic tagging of knowledge points for practice problems is the basis for
managing question bases and improving the automation and intelligence of
education. Therefore, it is of great practical significance to study the
automatic tagging technology for practice problems. However, there are few
studies on the automatic tagging of knowledge points for math problems. Math
texts have more complex structures and semantics compared with general texts
because they contain unique elements such as symbols and formulas. Therefore,
it is difficult to meet the accuracy requirement of knowledge point prediction
by directly applying the text classification techniques in general domains. In
this paper, K12 math problems taken as the research object, the LABS model
based on label-semantic attention and multi-label smoothing combining textual
features is proposed to improve the automatic tagging of knowledge points for
math problems. The model combines the text classification techniques in general
domains and the unique features of math texts. The results show that the models
using label-semantic attention or multi-label smoothing perform better on
precision, recall, and F1-score metrics than the traditional BiLSTM model,
while the LABS model using both performs best. It can be seen that label
information can guide the neural networks to extract meaningful information
from the problem text, which improves the text classification performance of
the model. Moreover, multi-label smoothing combining textual features can fully
explore the relationship between text and labels, improve the model's
prediction ability for new data and improve the model's classification
accuracy.
- Abstract(参考訳): 実践問題に対する知識ポイントの自動タグ付けは、質問ベースを管理し、教育の自動化と知性を向上させるための基礎である。
したがって, 実践問題に対する自動タグ付け技術の研究は, 実用上非常に重要である。
しかし,数学問題に対する知識点の自動タグ付けに関する研究はほとんどない。
数学のテキストは、記号や公式のようなユニークな要素を含むため、一般的なテキストよりも複雑な構造と意味を持っている。
したがって、一般的なドメインでテキスト分類技術を直接適用することで、知識ポイント予測の精度要件を満たすことは困難である。
本稿では,研究対象とするk12数学問題,ラベル・セマンティクス的注意に基づくラボモデル,テキスト特徴量を組み合わせたマルチラベル平滑化モデルを提案し,数学問題に対する知識点の自動タグ付けを改善する。
このモデルは、一般分野におけるテキスト分類技術と数学テキストの特徴を組み合わせたものである。
その結果,ラベル・セマンティック・アテンションやマルチラベル・スムーシングを用いたモデルでは,従来のBiLSTMモデルよりも精度,リコール,F1スコアの指標が向上し,LABSモデルでは両者が最良であることがわかった。
ラベル情報はニューラルネットワークを誘導し、問題テキストから意味のある情報を抽出することで、モデルのテキスト分類性能を向上させることができる。
さらに、テキスト特徴を組み合わせたマルチラベルスムーシングは、テキストとラベルの関係を十分に探求し、新しいデータに対するモデルの予測能力を改善し、モデルの分類精度を向上させることができる。
関連論文リスト
- Combining Autoregressive and Autoencoder Language Models for Text Classification [1.0878040851638]
CAALM-TCは、自動回帰言語モデルと自動エンコーダ言語モデルを統合することで、テキスト分類を強化する新しい手法である。
4つのベンチマークデータセットの実験結果は、CAALMが既存の手法より一貫して優れていることを示している。
論文 参考訳(メタデータ) (2024-11-20T12:49:42Z) - Self-Evolution Learning for Mixup: Enhance Data Augmentation on Few-Shot
Text Classification Tasks [75.42002070547267]
テキスト分類におけるデータ拡張のための自己進化学習(SE)に基づくミックスアップ手法を提案する。
モデル出力と原サンプルの1つのホットラベルを線形に補間して,新しい軟質なラベル混在を生成する,新しいインスタンス固有ラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T23:43:23Z) - Heterogeneous Line Graph Transformer for Math Word Problems [21.4761673982334]
本稿では,オンライン学習システムのための新しい機械学習モデルの設計と実装について述べる。
我々は,自動算術語問題解決システムの実現により,システムの知能レベルを向上することを目指している。
論文 参考訳(メタデータ) (2022-08-11T05:27:05Z) - Automatic Short Math Answer Grading via In-context Meta-learning [2.0263791972068628]
本研究では,数学質問に対する児童生徒の回答に対する自動短解格付けの問題について検討する。
我々は、数学的な内容に適応した人気のある言語モデルBERTの変種である MathBERT をベースモデルとして使用しています。
第二に、言語モデルへの入力としてスコアリングサンプルを提供する、コンテキスト内学習アプローチを用いる。
論文 参考訳(メタデータ) (2022-05-30T16:26:02Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - SMART: A Situation Model for Algebra Story Problems via Attributed
Grammar [74.1315776256292]
本稿では, 問題解決における人間の精神状態を表現する心理学研究から生まれた, emphsituation modelの概念を紹介する。
提案モデルでは,より優れた解釈性を保ちながら,従来のすべてのニューラルソルバを大きなマージンで上回る結果が得られた。
論文 参考訳(メタデータ) (2020-12-27T21:03:40Z) - When is Memorization of Irrelevant Training Data Necessary for
High-Accuracy Learning? [53.523017945443115]
我々は,十分な精度のトレーニングアルゴリズムが,予測モデルにおいて,そのトレーニング例の大規模サブセットに関する情報を本質的にすべてエンコードしなければならない自然予測問題を記述する。
私たちの結果は、トレーニングアルゴリズムや学習に使用されるモデルのクラスに依存しません。
論文 参考訳(メタデータ) (2020-12-11T15:25:14Z) - Stacking Neural Network Models for Automatic Short Answer Scoring [0.0]
本稿では,ニューラルネットワークとXGBoostに基づく重ね合わせモデルを用いて文埋め込み機能を持つ分類プロセスを提案する。
ベストモデルではF1スコアの0.821が、同じデータセットで前の作業を上回った。
論文 参考訳(メタデータ) (2020-10-21T16:00:09Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Short Text Classification via Knowledge powered Attention with
Similarity Matrix based CNN [6.6723692875904375]
本稿では,類似度行列に基づく畳み込みニューラルネットワーク(KASM)モデルを用いた知識駆動型アテンションを提案する。
我々は知識グラフ(KG)を用いて短文の意味表現を強化する。
知識の重要性を測定するために,重要な情報を選択するための注意機構を導入する。
論文 参考訳(メタデータ) (2020-02-09T12:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。