論文の概要: Question Type Classification Methods Comparison
- arxiv url: http://arxiv.org/abs/2001.00571v1
- Date: Fri, 3 Jan 2020 00:16:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 17:19:35.336715
- Title: Question Type Classification Methods Comparison
- Title(参考訳): 質問タイプ分類法の比較
- Authors: Tamirlan Seidakhmetov
- Abstract要約: 本稿では、ロジスティック回帰、畳み込みニューラルネットワーク(CNN)、Long Short-Term Memory Network(LSTM)、Quasi-Recurrent Neural Networks(QRNN)といった問題分類タスクに対する最先端のアプローチの比較研究について述べる。
すべてのモデルは、事前訓練されたGLoVeワードの埋め込みを使用し、人間のラベル付きデータに基づいて訓練される。
最良の精度は5つの畳み込み層と、並列に積み重ねられたさまざまなカーネルサイズを持つCNNモデルを使用して達成され、その後に1つの完全に接続された層が続く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper presents a comparative study of state-of-the-art approaches for
question classification task: Logistic Regression, Convolutional Neural
Networks (CNN), Long Short-Term Memory Network (LSTM) and Quasi-Recurrent
Neural Networks (QRNN). All models use pre-trained GLoVe word embeddings and
trained on human-labeled data. The best accuracy is achieved using CNN model
with five convolutional layers and various kernel sizes stacked in parallel,
followed by one fully connected layer. The model reached 90.7% accuracy on TREC
10 test set. All the model architectures in this paper were developed from
scratch on PyTorch, in few cases based on reliable open-source implementation.
- Abstract(参考訳): 本稿では、ロジスティック回帰、畳み込みニューラルネットワーク(CNN)、Long Short-Term Memory Network(LSTM)、Quasi-Recurrent Neural Networks(QRNN)といった問題分類タスクに対する最先端のアプローチの比較研究について述べる。
すべてのモデルは、事前訓練されたGLoVeワードの埋め込みを使用し、人間のラベル付きデータに基づいて訓練される。
最適な精度は、5つの畳み込み層と様々なカーネルサイズが並列に積み重なり、1つの完全連結層を持つcnnモデルを用いて達成される。
モデルはtrac 10テストセットで90.7%の精度に達した。
本稿ではPyTorchのスクラッチから,信頼性の高いオープンソース実装に基づくモデルアーキテクチャを開発した。
関連論文リスト
- [Re] Network Deconvolution [3.2149341556907256]
ネットワークデコンボリューション(Network Deconvolution)" は、各層にデータが供給される前にピクセルワイドおよびチャネルワイドの相関を取り除くために使用される。
原論文の表1と表2で報告された結果の再現に成功した。
論文 参考訳(メタデータ) (2024-10-02T02:48:13Z) - A model for multi-attack classification to improve intrusion detection
performance using deep learning approaches [0.0]
ここでの目的は、悪意のある攻撃を識別するための信頼性の高い侵入検知メカニズムを作ることである。
ディープラーニングベースのソリューションフレームワークは、3つのアプローチから成り立っている。
最初のアプローチは、adamax、SGD、adagrad、adam、RMSprop、nadam、adadeltaといった7つの機能を持つLong-Short Term Memory Recurrent Neural Network (LSTM-RNN)である。
モデルは特徴を自己学習し、攻撃クラスをマルチアタック分類として分類する。
論文 参考訳(メタデータ) (2023-10-25T05:38:44Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - CoV-TI-Net: Transferred Initialization with Modified End Layer for
COVID-19 Diagnosis [5.546855806629448]
転送学習は比較的新しい学習手法であり、少ない計算で優れた性能を達成するために多くの分野で採用されている。
本研究では,MNISTデータセットにPyTorch事前学習モデル(VGG19_bnとWideResNet -101)を適用した。
提案したモデルはKaggleのノートブックで開発、検証され、計算時間を要さずに99.77%の精度に達した。
論文 参考訳(メタデータ) (2022-09-20T08:52:52Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Towards Disentangling Information Paths with Coded ResNeXt [11.884259630414515]
ネットワーク全体の機能の透明性を高めるために,我々は新しいアプローチを採っている。
分類のためのニューラルネットワークアーキテクチャを提案し、各クラスに関連する情報が特定の経路を流れる。
論文 参考訳(メタデータ) (2022-02-10T21:45:49Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Animal Behavior Classification via Accelerometry Data and Recurrent
Neural Networks [11.099308746733028]
各種リカレントニューラルネットワーク(RNN)モデルを用いた加速度計測データを用いた動物行動の分類について検討した。
検討したモデルの分類性能と複雑性を評価する。
また、評価には2つの最先端畳み込みニューラルネットワーク(CNN)ベースの時系列分類モデルも含んでいる。
論文 参考訳(メタデータ) (2021-11-24T23:28:25Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。