論文の概要: The effects of data size on Automated Essay Scoring engines
- arxiv url: http://arxiv.org/abs/2108.13275v1
- Date: Mon, 30 Aug 2021 14:39:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 15:01:23.185244
- Title: The effects of data size on Automated Essay Scoring engines
- Title(参考訳): 自動エッセイスコアリングエンジンにおけるデータサイズの影響
- Authors: Christopher Ormerod, Amir Jafari, Susan Lottridge, Milan Patel, Amy
Harris, and Paul van Wamelen
- Abstract要約: 自動エッセイスコアリングエンジンの性能に及ぼすデータサイズと品質の影響について検討する。
この研究は、実運用で使用されるニューラルネットワークのより良いトレーニングデータを確立する方法について、私たちに情報を提供しようとしている。
- 参考スコア(独自算出の注目度): 0.415623340386296
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study the effects of data size and quality on the performance on Automated
Essay Scoring (AES) engines that are designed in accordance with three
different paradigms; A frequency and hand-crafted feature-based model, a
recurrent neural network model, and a pretrained transformer-based language
model that is fine-tuned for classification. We expect that each type of model
benefits from the size and the quality of the training data in very different
ways. Standard practices for developing training data for AES engines were
established with feature-based methods in mind, however, since neural networks
are increasingly being considered in a production setting, this work seeks to
inform us as to how to establish better training data for neural networks that
will be used in production.
- Abstract(参考訳): データサイズと品質が3つの異なるパラダイムに従って設計された自動エッセイスコアリング(aes)エンジンの性能に及ぼす影響について検討した。
各タイプのモデルは、トレーニングデータのサイズと品質に非常に異なる方法でメリットがあると期待しています。
aesエンジンのトレーニングデータを開発するための標準的なプラクティスは、機能ベースの手法を念頭に置いて確立されましたが、ニューラルネットワークは、プロダクション環境ではますます検討されているので、本研究は、本番環境で使用されるニューラルネットワークのトレーニングデータを確立する方法を模索しています。
関連論文リスト
- Text Classification: Neural Networks VS Machine Learning Models VS Pre-trained Models [0.0]
テキスト分類を行う異なる手法の比較を行う。
我々は、事前訓練されたモデル7つ、標準ニューラルネットワーク3つ、機械学習モデル3つを考慮する。
標準的なニューラルネットワークと機械学習モデルでは、TF-IDFとGloVeという2つの埋め込みテクニックを比較します。
論文 参考訳(メタデータ) (2024-12-30T15:44:05Z) - Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - On the Effect of Purely Synthetic Training Data for Different Automatic Speech Recognition Architectures [19.823015917720284]
音声認識学習における合成データの有用性について検討する。
我々は、元のトレーニングデータを再生し、合成データのみに基づいてASRシステムを訓練する。
トレーニングスコアが過度な適合を示す場合であっても,TTSモデルの一般化は良好であることを示す。
論文 参考訳(メタデータ) (2024-07-25T12:44:45Z) - Defect Classification in Additive Manufacturing Using CNN-Based Vision
Processing [76.72662577101988]
本稿では、まず、畳み込みニューラルネットワーク(CNN)を用いて、画像データセットの欠陥をAMから第2に正確に分類し、発達した分類モデルにアクティブラーニング技術を適用する。
これにより、トレーニングデータやトレーニングデータの生成に必要なデータのサイズを削減できる、ヒューマン・イン・ザ・ループ機構の構築が可能になる。
論文 参考訳(メタデータ) (2023-07-14T14:36:58Z) - Advancing Reacting Flow Simulations with Data-Driven Models [50.9598607067535]
マルチ物理問題における機械学習ツールの効果的な利用の鍵は、それらを物理モデルとコンピュータモデルに結合することである。
本章では, 燃焼システムにおけるデータ駆動型低次モデリングの適用可能性について概説する。
論文 参考訳(メタデータ) (2022-09-05T16:48:34Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Using GPT-2 to Create Synthetic Data to Improve the Prediction
Performance of NLP Machine Learning Classification Models [0.0]
機械学習モデルの性能を高めるために合成データを利用するのが一般的になっている。
Yelpのピザレストランレビューデータセットを使って、トレーニング済みのGPT-2 Transformer Modelを微調整して、合成ピザレビューデータを生成しました。
そして、この合成データを元の本物のデータと組み合わせて、新しい共同データセットを作成しました。
論文 参考訳(メタデータ) (2021-04-02T20:20:42Z) - BENDR: using transformers and a contrastive self-supervised learning
task to learn from massive amounts of EEG data [15.71234837305808]
言語モデリング(LM)の手法とアーキテクチャを脳波モデリング(EM)に適用する方法を検討する。
1つの事前学習モデルが、異なるハードウェアで記録された全く新しい生の脳波シーケンスをモデル化できることがわかった。
このモデルの内部表現とアーキテクチャ全体は、さまざまな下流のBCIおよびEEG分類タスクに微調整することができる。
論文 参考訳(メタデータ) (2021-01-28T14:54:01Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Learning Queuing Networks by Recurrent Neural Networks [0.0]
データから性能モデルを導出する機械学習手法を提案する。
我々は、通常の微分方程式のコンパクトな系の観点から、それらの平均力学の決定論的近似を利用する。
これにより、ニューラルネットワークの解釈可能な構造が可能になり、システム測定からトレーニングしてホワイトボックスパラメータ化モデルを生成することができる。
論文 参考訳(メタデータ) (2020-02-25T10:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。