論文の概要: Robust Educational Dialogue Act Classifiers with Low-Resource and
Imbalanced Datasets
- arxiv url: http://arxiv.org/abs/2304.07499v1
- Date: Sat, 15 Apr 2023 08:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 18:42:59.716948
- Title: Robust Educational Dialogue Act Classifiers with Low-Resource and
Imbalanced Datasets
- Title(参考訳): 低リソース・不均衡データセットを用いたロバスト教育対話法分類器
- Authors: Jionghao Lin, Wei Tan, Ngoc Dang Nguyen, David Lang, Lan Du, Wray
Buntine, Richard Beare, Guanliang Chen, Dragan Gasevic
- Abstract要約: DAは、教師の対話中に行われる教師や生徒の会話行動を表すことができる。
ROC曲線(AUC)スコアの下での面積を最大化することにより,DA分類器の性能を最適化することを提案する。
- 参考スコア(独自算出の注目度): 4.738414221509752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue acts (DAs) can represent conversational actions of tutors or
students that take place during tutoring dialogues. Automating the
identification of DAs in tutoring dialogues is significant to the design of
dialogue-based intelligent tutoring systems. Many prior studies employ machine
learning models to classify DAs in tutoring dialogues and invest much effort to
optimize the classification accuracy by using limited amounts of training data
(i.e., low-resource data scenario). However, beyond the classification
accuracy, the robustness of the classifier is also important, which can reflect
the capability of the classifier on learning the patterns from different class
distributions. We note that many prior studies on classifying educational DAs
employ cross entropy (CE) loss to optimize DA classifiers on low-resource data
with imbalanced DA distribution. The DA classifiers in these studies tend to
prioritize accuracy on the majority class at the expense of the minority class
which might not be robust to the data with imbalanced ratios of different DA
classes. To optimize the robustness of classifiers on imbalanced class
distributions, we propose to optimize the performance of the DA classifier by
maximizing the area under the ROC curve (AUC) score (i.e., AUC maximization).
Through extensive experiments, our study provides evidence that (i) by
maximizing AUC in the training process, the DA classifier achieves significant
performance improvement compared to the CE approach under low-resource data,
and (ii) AUC maximization approaches can improve the robustness of the DA
classifier under different class imbalance ratios.
- Abstract(参考訳): 対話行為(英: Dialogue act, DA)は、家庭教師や学生の会話行動を表す。
対話の指導におけるdasの識別の自動化は,対話に基づく知的指導システムの設計において重要である。
多くの先行研究では、学習対話におけるDAの分類に機械学習モデルを採用し、限られた訓練データ(低リソースのデータシナリオ)を使用して分類精度を最適化するために多くの努力を払っている。
しかし,分類精度以外にも,分類器のロバスト性も重要であり,異なるクラス分布からパターンを学習する上での分類器の能力を反映している。
教育DAの分類に関する多くの先行研究は、不均衡なDA分布を持つ低リソースデータ上でDA分類器を最適化するためにクロスエントロピー(CE)損失を用いる。
これらの研究におけるDA分類器は、異なるDAクラスの不均衡比でデータに頑健でないマイノリティクラスを犠牲にして、多数派の精度を優先する傾向にある。
クラス分布の不均衡に対する分類器のロバスト性を最適化するために,roc曲線(auc)スコアの下の領域を最大化し,da分類器の性能を最適化する(すなわち,auc最大化)。
広範な実験を通じて 我々の研究は
(i)訓練過程におけるAUCの最大化により、低リソースデータによるCEアプローチと比較して、DA分類器は大幅な性能向上を実現し、
(II)AUC最大化手法は,クラス不均衡比の異なるDA分類器のロバスト性を向上させることができる。
関連論文リスト
- Electroencephalogram Emotion Recognition via AUC Maximization [0.0]
不均衡データセットは神経科学、認知科学、医学診断などの分野で大きな課題を提起する。
本研究は,DEAPデータセットにおけるライキングラベルを例として,イシュークラスの不均衡に対処する。
論文 参考訳(メタデータ) (2024-08-16T19:08:27Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - DRAUC: An Instance-wise Distributionally Robust AUC Optimization
Framework [133.26230331320963]
ROC曲線のエリア(AUC)は、長い尾の分類のシナリオにおいて広く用いられている指標である。
本研究では,分散ロバストAUC(DRAUC)のインスタンスワイドサロゲート損失を提案し,その上に最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-11-06T12:15:57Z) - AUC Optimization from Multiple Unlabeled Datasets [14.318887072787938]
U$m$-AUCは、U$m$データを多ラベルAUC最適化問題に変換するAUC最適化手法である。
提案したU$m$-AUCは理論的および実験的に有効であることを示す。
論文 参考訳(メタデータ) (2023-05-25T06:43:42Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Adaptive Dimension Reduction and Variational Inference for Transductive
Few-Shot Classification [2.922007656878633]
適応次元の削減によりさらに改善された変分ベイズ推定に基づく新しいクラスタリング法を提案する。
提案手法は,Few-Shotベンチマークにおける現実的非バランスなトランスダクティブ設定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-09-18T10:29:02Z) - Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder [23.860842627883187]
我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
論文 参考訳(メタデータ) (2021-08-11T04:45:56Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。