論文の概要: Classification of Pedagogical content using conventional machine
learning and deep learning model
- arxiv url: http://arxiv.org/abs/2101.07321v1
- Date: Mon, 18 Jan 2021 20:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 07:24:25.637555
- Title: Classification of Pedagogical content using conventional machine
learning and deep learning model
- Title(参考訳): 従来の機械学習とディープラーニングモデルを用いた教育内容の分類
- Authors: Vedat Apuk, Krenare Pireva Nu\c{c}i
- Abstract要約: 本論文では,従来のモデルからK-Nearest Neighbor (KNN) と深層学習モデルからLong Short-term Memory (LSTM)リカレントニューラルネットワークの2つの異なるモデルを用いて教育的コンテンツを分類する。
教育内容の分類精度は、KNNモデルで92.52 %、LSTMモデルで87.71 %に達する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of the Internet and a large number of digital technologies has
brought with it many different challenges. A large amount of data is found on
the web, which in most cases is unstructured and unorganized, and this
contributes to the fact that the use and manipulation of this data is quite a
difficult process. Due to this fact, the usage of different machine and deep
learning techniques for Text Classification has gained its importance, which
improved this discipline and made it more interesting for scientists and
researchers for further study. This paper aims to classify the pedagogical
content using two different models, the K-Nearest Neighbor (KNN) from the
conventional models and the Long short-term memory (LSTM) recurrent neural
network from the deep learning models. The result indicates that the accuracy
of classifying the pedagogical content reaches 92.52 % using KNN model and
87.71 % using LSTM model.
- Abstract(参考訳): インターネットの出現と多くのデジタル技術によって、様々な課題がもたらされた。
大量のデータがWeb上で発見され、多くの場合、構造化されておらず、組織化されていないため、このデータの使用と操作は極めて難しいプロセスであるという事実に寄与する。
この事実により、テキスト分類における異なる機械学習技術とディープラーニング技術の使用が重要となり、この分野を改善し、科学者や研究者にとってさらなる研究がより興味深いものとなった。
本稿では,従来のモデルからk-nearest neighbor(knn),ディープラーニングモデルからlong short-term memory(lstm)リカレントニューラルネットワークの2つの異なるモデルを用いて,教育内容の分類を行う。
その結果,教育内容の分類精度はKNNモデルで92.52 %,LSTMモデルで87.71 %に達することがわかった。
関連論文リスト
- Multi-Scale Convolutional LSTM with Transfer Learning for Anomaly Detection in Cellular Networks [1.1432909951914676]
本研究では,トランスファーラーニング(TL)を用いたマルチスケール畳み込みLSTMによるセルネットワークの異常検出手法を提案する。
モデルは最初、公開データセットを使用してスクラッチからトレーニングされ、典型的なネットワーク動作を学習する。
我々は,スクラッチから訓練したモデルの性能と,TLを用いた微調整モデルの性能を比較した。
論文 参考訳(メタデータ) (2024-09-30T17:51:54Z) - Variational autoencoder-based neural network model compression [4.992476489874941]
変分オートエンコーダ(VAE)は、深部生成モデルの一種であり、近年広く使われている。
本稿では,VAEに基づくニューラルネットワークモデル圧縮手法について検討する。
論文 参考訳(メタデータ) (2024-08-25T09:06:22Z) - On Learnable Parameters of Optimal and Suboptimal Deep Learning Models [2.889799048595314]
ディープラーニングモデルの構造的および運用的側面について検討する。
本研究は,学習可能なパラメータ(重み)統計,分布,ノード間相互作用,可視化のニュアンスに着目した。
論文 参考訳(メタデータ) (2024-08-21T15:50:37Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Hybrid Quantum Neural Network in High-dimensional Data Classification [1.4801853435122907]
本稿では,古典的畳み込み層と量子ニューラルネットワークを組み合わせた新しいモデルアーキテクチャを提案する。
この実験は、Bird-CLEF 2021データセットから高次元オーディオデータを分類することを目的としている。
論文 参考訳(メタデータ) (2023-12-02T04:19:23Z) - LowDINO -- A Low Parameter Self Supervised Learning Model [0.0]
本研究は,小規模ネットワークが巨大ネットワークの特性を活用可能なニューラルネットワークアーキテクチャの設計の可能性を検討することを目的とする。
これまでの研究では、畳み込みニューラルネットワーク(ConvNet)を使用することで、固有の帰納バイアスが得られることが示されている。
パラメータの数を減らすために、MobileViTブロックを使用してアテンションメカニズムを利用する。
論文 参考訳(メタデータ) (2023-05-28T18:34:59Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。