論文の概要: Auxiliary Task Guided Interactive Attention Model for Question
Difficulty Prediction
- arxiv url: http://arxiv.org/abs/2207.01494v1
- Date: Tue, 24 May 2022 19:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-11 21:46:58.116347
- Title: Auxiliary Task Guided Interactive Attention Model for Question
Difficulty Prediction
- Title(参考訳): 質問難易度予測のための補助タスクガイド型対話型注意モデル
- Authors: Venktesh V, Md. Shad Akhtar, Mukesh Mohania and Vikram Goyal
- Abstract要約: 本稿では,対話型注意機構を持つマルチタスク手法Qdiffを提案し,ブルームの分類と難易度を共同で予測する。
提案手法は,ブルームの分類学と難易度ラベルの関係を捉えた表現の学習を支援する。
- 参考スコア(独自算出の注目度): 6.951136079043972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online learning platforms conduct exams to evaluate the learners in a
monotonous way, where the questions in the database may be classified into
Bloom's Taxonomy as varying levels in complexity from basic knowledge to
advanced evaluation. The questions asked in these exams to all learners are
very much static. It becomes important to ask new questions with different
difficulty levels to each learner to provide a personalized learning
experience. In this paper, we propose a multi-task method with an interactive
attention mechanism, Qdiff, for jointly predicting Bloom's Taxonomy and
difficulty levels of academic questions. We model the interaction between the
predicted bloom taxonomy representations and the input representations using an
attention mechanism to aid in difficulty prediction. The proposed learning
method would help learn representations that capture the relationship between
Bloom's taxonomy and difficulty labels. The proposed multi-task method learns a
good input representation by leveraging the relationship between the related
tasks and can be used in similar settings where the tasks are related. The
results demonstrate that the proposed method performs better than training only
on difficulty prediction. However, Bloom's labels may not always be given for
some datasets. Hence we soft label another dataset with a model fine-tuned to
predict Bloom's labels to demonstrate the applicability of our method to
datasets with only difficulty labels.
- Abstract(参考訳): オンライン学習プラットフォームは、学習者を単調に評価するために試験を実施し、データベース内の質問は、基本的な知識から高度な評価まで複雑さのレベルの違いとしてブルームの分類に分類できる。
この試験で質問されたすべての学習者に対する質問は、非常に静的です。
学習者ごとに異なる難易度を持つ新しい質問をすることで、パーソナライズされた学習体験を提供することが重要になる。
本稿では,学際質問の分類と難易度を共同で予測するための対話型注意機構qdiffを用いたマルチタスク手法を提案する。
予測したブルーム分類表現と入力表現との相互作用を注意機構を用いてモデル化し,難易度予測を支援する。
提案手法は,ブルームの分類学と難易度ラベルの関係を捉えた表現の学習を支援する。
提案手法は,タスク間の関係を利用して適切な入力表現を学習し,タスクが関連しているような設定で使用することができる。
その結果,提案手法は,難易度予測のみに基づく学習よりも優れていた。
しかしながら、bloomのラベルは、あるデータセットに対して常に与えられるとは限らない。
したがって、ブルームのラベルを予測するために微調整されたモデルで別のデータセットをソフトラベルし、難解なラベルのみのデータセットに適用性を示す。
関連論文リスト
- Preview-based Category Contrastive Learning for Knowledge Distillation [53.551002781828146]
知識蒸留(PCKD)のための新しい予見型カテゴリーコントラスト学習法を提案する。
まず、インスタンスレベルの特徴対応と、インスタンスの特徴とカテゴリ中心の関係の両方の構造的知識を蒸留する。
カテゴリ表現を明示的に最適化し、インスタンスとカテゴリの表現を明確に関連付けることができる。
論文 参考訳(メタデータ) (2024-10-18T03:31:00Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Association Graph Learning for Multi-Task Classification with Category
Shifts [68.58829338426712]
関連する分類タスクが同じラベル空間を共有し、同時に学習されるマルチタスク分類に焦点を当てる。
我々は、不足クラスのためのタスク間で知識を伝達する関連グラフを学習する。
我々の手法は代表的基準よりも一貫して性能が良い。
論文 参考訳(メタデータ) (2022-10-10T12:37:41Z) - Comparing Text Representations: A Theory-Driven Approach [2.893558866535708]
我々は、テキストデータセットの特定の特徴に適合するように、計算学習理論から一般的なツールを適応させる。
本稿では,表現とタスクの整合性を評価する手法を提案する。
この方法は、分類に基づくNLPタスクの難易度を校正し、定量的に測定する。
論文 参考訳(メタデータ) (2021-09-15T17:48:19Z) - TagRec: Automated Tagging of Questions with Hierarchical Learning
Taxonomy [0.0]
オンライン教育プラットフォームは、階層的な学習分類に基づく学術的な質問を組織する
本稿では,分類学と質問のセマンティック関連性を最適化する類似性に基づく検索タスクとして,問題を定式化する。
本研究では,本手法が未確認ラベルの扱いに役立ち,野生の分類学的タグ付けに有効であることを示す。
論文 参考訳(メタデータ) (2021-07-03T11:50:55Z) - Learning with Instance Bundles for Reading Comprehension [61.823444215188296]
質問応答スコアを複数の関連インスタンスで比較する新しい監視手法を提案する。
具体的には、密接に対照的な質問や回答のさまざまな近所でこれらのスコアを正規化します。
2つのデータセット上のインスタンスバンドルによるトレーニングの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2021-04-18T06:17:54Z) - Curriculum Learning: A Survey [65.31516318260759]
カリキュラム学習戦略は、機械学習のあらゆる分野で成功している。
我々は,様々な分類基準を考慮して,カリキュラム学習アプローチの分類を手作業で構築する。
集約型クラスタリングアルゴリズムを用いて,カリキュラム学習手法の階層木を構築する。
論文 参考訳(メタデータ) (2021-01-25T20:08:32Z) - A Survey on Deep Learning with Noisy Labels: How to train your model
when you cannot trust on the annotations? [21.562089974755125]
ノイズラベルの存在下でのディープラーニングモデルのトレーニングを改善するために,いくつかのアプローチが提案されている。
本稿では,ロバストな損失,サンプル重み付け,サンプル選択,メタラーニング,組み合わせアプローチの3つのグループでアルゴリズムを分類する。
論文 参考訳(メタデータ) (2020-12-05T15:45:20Z) - Efficient PAC Learning from the Crowd with Pairwise Comparison [7.594050968868919]
PAC学習しきい値関数の問題を,アノテータが(騒々しい)ラベルやペア比較タグを付与できる群から検討する。
我々は、学習とアノテーションをインターリーブするラベル効率のアルゴリズムを設計し、アルゴリズムの一定のオーバーヘッドをもたらす。
論文 参考訳(メタデータ) (2020-11-02T16:37:55Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。