論文の概要: TextConvoNet:A Convolutional Neural Network based Architecture for Text
Classification
- arxiv url: http://arxiv.org/abs/2203.05173v1
- Date: Thu, 10 Mar 2022 06:09:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 13:16:23.393044
- Title: TextConvoNet:A Convolutional Neural Network based Architecture for Text
Classification
- Title(参考訳): TextConvoNet:テキスト分類のための畳み込みニューラルネットワークに基づくアーキテクチャ
- Authors: Sanskar Soni, Satyendra Singh Chouhan, and Santosh Singh Rathore
- Abstract要約: CNNベースのアーキテクチャTextConvoNetは、文内n-gram特徴を抽出するだけでなく、入力されたテキストデータ中の文間n-gram特徴をキャプチャする。
実験の結果,提案したTextConvoNetは,テキスト分類のための最先端の機械学習モデルやディープラーニングモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.34410212782758043
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, deep learning-based models have significantly improved the
Natural Language Processing (NLP) tasks. Specifically, the Convolutional Neural
Network (CNN), initially used for computer vision, has shown remarkable
performance for text data in various NLP problems. Most of the existing
CNN-based models use 1-dimensional convolving filters n-gram detectors), where
each filter specialises in extracting n-grams features of a particular input
word embedding. The input word embeddings, also called sentence matrix, is
treated as a matrix where each row is a word vector. Thus, it allows the model
to apply one-dimensional convolution and only extract n-gram based features
from a sentence matrix. These features can be termed as intra-sentence n-gram
features. To the extent of our knowledge, all the existing CNN models are based
on the aforementioned concept. In this paper, we present a CNN-based
architecture TextConvoNet that not only extracts the intra-sentence n-gram
features but also captures the inter-sentence n-gram features in input text
data. It uses an alternative approach for input matrix representation and
applies a two-dimensional multi-scale convolutional operation on the input. To
evaluate the performance of TextConvoNet, we perform an experimental study on
five text classification datasets. The results are evaluated by using various
performance metrics. The experimental results show that the presented
TextConvoNet outperforms state-of-the-art machine learning and deep learning
models for text classification purposes.
- Abstract(参考訳): 近年、ディープラーニングベースのモデルは自然言語処理(NLP)タスクを大幅に改善している。
特に、コンピュータビジョンに最初に使われた畳み込みニューラルネットワーク(CNN)は、様々なNLP問題におけるテキストデータの顕著な性能を示している。
既存のCNNベースのモデルの多くは1次元の畳み込みフィルタ(n-gram detectors)を使用しており、各フィルタは特定の入力単語の埋め込みの特徴を抽出する。
入力語埋め込みは文行列とも呼ばれ、各行がワードベクトルである行列として扱われる。
したがって、モデルは1次元の畳み込みを適用し、文行列からn-gramベースの特徴のみを抽出することができる。
これらの特徴は、文内n-gram特徴と呼ばれる。
我々の知る限りでは、既存のCNNモデルはすべて上記の概念に基づいている。
本稿では,n-gram内特徴を抽出するだけでなく,入力テキストデータ中のn-gram間特徴をキャプチャするcnnベースのアーキテクチャであるtextconvonetを提案する。
入力行列表現に代替的なアプローチを用い、入力に2次元の多次元畳み込み演算を適用する。
TextConvoNetの性能を評価するために,5つのテキスト分類データセットの実験的検討を行った。
結果は様々なパフォーマンス指標を用いて評価される。
提案するtextconvonetは,テキスト分類において最先端の機械学習およびディープラーニングモデルよりも優れていることを示す。
関連論文リスト
- SLCNN: Sentence-Level Convolutional Neural Network for Text
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は,テキスト分類のタスクにおいて顕著な成功を収めている。
CNNを用いたテキスト分類のための新しいベースラインモデルが研究されている。
結果から,提案したモデルの性能は,特に長いドキュメントにおいて向上していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:16:02Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Graph Neural Networks for Natural Language Processing: A Survey [64.36633422999905]
本稿では,自然言語処理のためのグラフニューラルネットワーク(GNN)について概観する。
我々は,グラフ構築,グラフ表現学習,グラフベースエンコーダ・デコーダモデルという3つの軸に沿って,NLP用GNNの既存の研究を組織する,NLP用GNNの新しい分類法を提案する。
論文 参考訳(メタデータ) (2021-06-10T23:59:26Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Representation Extraction and Deep Neural Recommendation for
Collaborative Filtering [9.367612782346207]
本稿では,評価行列からユーザやアイテムを抽出する新しい表現学習アルゴリズムについて検討する。
Representation eXtraction と Deep Neural NETwork (RexNet) の2つの相からなるモジュラーアルゴリズムを提案する。
RexNetは、視覚情報やテキスト情報のような構造化されていない補助データに依存しない。
論文 参考訳(メタデータ) (2020-12-09T11:15:23Z) - An Intelligent CNN-VAE Text Representation Technology Based on Text
Semantics for Comprehensive Big Data [15.680918844684454]
畳み込みニューラルネットワーク(CNN)と可変オートエンコーダ(VAE)に基づくテキスト特徴表現モデルを提案する。
提案手法は,k-nearest neighbor (KNN), random forest (RF) および Support vector machine (SVM) 分類アルゴリズムにおいて優れる。
論文 参考訳(メタデータ) (2020-08-28T07:39:45Z) - Multichannel CNN with Attention for Text Classification [5.1545224296246275]
本稿では,テキスト分類のための注意型マルチチャネル畳み込みニューラルネットワーク(AMCNN)を提案する。
AMCNNは、単語の歴史と将来の情報を高次元表現にエンコードするために双方向長短期記憶を使用する。
ベンチマークデータセットの実験結果は、AMCNNが最先端の手法よりも優れたパフォーマンスを達成していることを示している。
論文 参考訳(メタデータ) (2020-06-29T16:37:51Z) - Combine Convolution with Recurrent Networks for Text Classification [12.92202472766078]
本稿では,2つのネットワークの強みを最大限に維持するための新しい手法を提案する。
提案モデルでは、畳み込みニューラルネットワークを用いて、各行が異なる側面から各単語の重要性を反映する2次元重み行列を学習する。
両方向のRNNを用いて各単語を処理し、前後に隠された状態を融合して単語表現を得る神経テンソル層を用いる。
論文 参考訳(メタデータ) (2020-06-29T03:36:04Z) - Expressing Objects just like Words: Recurrent Visual Embedding for
Image-Text Matching [102.62343739435289]
既存の画像テキストマッチングアプローチは、テキストと画像の各独立オブジェクト間の親和性をキャプチャして集約することにより、画像テキストペアの類似性を推測する。
本稿では,リカレントニューラルネットワーク(RNN)を用いて画像と文を対称に処理するDual Path Recurrent Neural Network (DP-RNN)を提案する。
我々のモデルはFlickr30Kデータセットの最先端性能とMS-COCOデータセットの競合性能を達成する。
論文 参考訳(メタデータ) (2020-02-20T00:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。