論文の概要: Does Informativeness Matter? Active Learning for Educational Dialogue
Act Classification
- arxiv url: http://arxiv.org/abs/2304.05578v1
- Date: Wed, 12 Apr 2023 02:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 16:17:44.115750
- Title: Does Informativeness Matter? Active Learning for Educational Dialogue
Act Classification
- Title(参考訳): 情報性は重要か?
教育対話行為分類のためのアクティブラーニング
- Authors: Wei Tan, Jionghao Lin, David Lang, Guanliang Chen, Dragan Gasevic, Lan
Du, Wray Buntine
- Abstract要約: 対話法(DA)は、専門家の家庭教師が行うことや、授業中に学生が知っていることを説明するために用いられる。
実験的な研究の多くは、DAのマニュアルアノテーションのための文サンプルを得るためにランダムサンプリング法を採用している。
しかし, これらの研究は, サンプル情報量にはほとんど注意を払わず, 選択したサンプルの情報量に反映できる。
- 参考スコア(独自算出の注目度): 4.4360644624034675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue Acts (DAs) can be used to explain what expert tutors do and what
students know during the tutoring process. Most empirical studies adopt the
random sampling method to obtain sentence samples for manual annotation of DAs,
which are then used to train DA classifiers. However, these studies have paid
little attention to sample informativeness, which can reflect the information
quantity of the selected samples and inform the extent to which a classifier
can learn patterns. Notably, the informativeness level may vary among the
samples and the classifier might only need a small amount of low informative
samples to learn the patterns. Random sampling may overlook sample
informativeness, which consumes human labelling costs and contributes less to
training the classifiers. As an alternative, researchers suggest employing
statistical sampling methods of Active Learning (AL) to identify the
informative samples for training the classifiers. However, the use of AL
methods in educational DA classification tasks is under-explored. In this
paper, we examine the informativeness of annotated sentence samples. Then, the
study investigates how the AL methods can select informative samples to support
DA classifiers in the AL sampling process. The results reveal that most
annotated sentences present low informativeness in the training dataset and the
patterns of these sentences can be easily captured by the DA classifier. We
also demonstrate how AL methods can reduce the cost of manual annotation in the
AL sampling process.
- Abstract(参考訳): 対話法(DA)は、専門家の家庭教師が何をし、授業中に学生が知っていることを説明するために用いられる。
実験的な研究の多くは、DAのマニュアルアノテーションのサンプルを得るためにランダムサンプリング法を採用しており、DA分類器の訓練に使用される。
しかし,これらの研究は,選択したサンプルの情報量を反映し,分類器がパターンを学習できる範囲を知らせる,サンプル情報にはほとんど注意を払わなかった。
特に、情報化レベルはサンプルによって異なり、分類器はパターンを学ぶために少量の低い情報化サンプルを必要とする。
ランダムサンプリングは、人間のラベル付けコストを消費し、分類器の訓練に寄与しないサンプルインフォメーションを見逃す可能性がある。
代替として、研究者は、分類器を訓練するための情報的サンプルを特定するために、アクティブラーニング(AL)の統計的サンプリング手法を採用することを提案している。
しかし,教育da分類課題におけるal法の利用は未検討である。
本稿では,注釈付き文サンプルのインフォメーション性について検討する。
そこで本研究では, ALサンプリングプロセスにおいて, DA分類器をサポートするために, AL法が情報的サンプルを選択する方法について検討した。
その結果,ほとんどの注釈文は訓練データセットに低情報性を示し,これらの文のパターンはDA分類器で容易に把握できることがわかった。
また,alサンプリングプロセスにおいて,alメソッドが手動アノテーションのコストを削減する方法を示す。
関連論文リスト
- C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Active Learning for NLP with Large Language Models [4.1967870107078395]
アクティブラーニング(AL)テクニックは、可能な限り少数のサンプルをラベル付けして、合理的あるいは同様の結果に到達することができる。
本研究では,3つのデータセットにサンプルをラベル付けするためにLLM(Large Language Models)を使用することの正確さとコストについて検討する。
論文 参考訳(メタデータ) (2024-01-14T21:00:52Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - M-VAAL: Multimodal Variational Adversarial Active Learning for
Downstream Medical Image Analysis Tasks [16.85572580186212]
アクティブラーニングは、アノテーションの最も有益な例を積極的にサンプリングすることで、大きな注釈付きサンプルの必要性を最小化しようとする。
本稿では,付加的なモーダルからの補助情報を用いてアクティブサンプリングを強化するマルチモーダル変分適応型アクティブラーニング(M-VAAL)手法を提案する。
論文 参考訳(メタデータ) (2023-06-21T16:40:37Z) - AdaSelection: Accelerating Deep Learning Training through Data
Subsampling [27.46630703428186]
適応型サブサンプリング手法であるAdaSelectionを導入し,各ミニバッチ内の最も情報性の高いサブサンプルを同定する。
業界標準のベースラインと比較すると、AdaSelectionは一貫して優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-06-19T07:01:28Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - ALLSH: Active Learning Guided by Local Sensitivity and Hardness [98.61023158378407]
本稿では,局所感度と硬度認識獲得機能を備えたラベル付きサンプルの検索を提案する。
本手法は,様々な分類タスクにおいてよく用いられるアクティブラーニング戦略よりも一貫した利得が得られる。
論文 参考訳(メタデータ) (2022-05-10T15:39:11Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - Active Sentence Learning by Adversarial Uncertainty Sampling in Discrete
Space [56.22272513894306]
文理解のための能動的学習は、注釈のための情報的未ラベルデータを見つけることを目的としている。
アクティブな学習のための典型的な不確実性サンプリング手法は時間を要するため,リアルタイムにはほとんど機能しない,と我々は主張する。
本稿では, 離散空間 (AUSDS) における逆不確実性サンプリングを提案し, より効率的に情報付き未ラベルサンプルを検索する。
論文 参考訳(メタデータ) (2020-04-17T03:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。