論文の概要: Light-Weighted CNN for Text Classification
- arxiv url: http://arxiv.org/abs/2004.07922v1
- Date: Thu, 16 Apr 2020 20:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 20:42:53.538573
- Title: Light-Weighted CNN for Text Classification
- Title(参考訳): テキスト分類のための軽量CNN
- Authors: Ritu Yadav
- Abstract要約: 分離可能な畳み込みに基づく新しいアーキテクチャを導入する。
分離可能な畳み込みの概念は、既に画像分類の分野に存在している。
このアーキテクチャの助けを借りて、トレーニング可能なパラメータを大幅に削減できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For management, documents are categorized into a specific category, and to do
these, most of the organizations use manual labor. In today's automation era,
manual efforts on such a task are not justified, and to avoid this, we have so
many software out there in the market. However, efficiency and minimal resource
consumption is the focal point which is also creating a competition. The
categorization of such documents into specified classes by machine provides
excellent help. One of categorization technique is text classification using a
Convolutional neural network(TextCNN). TextCNN uses multiple sizes of filters,
as in the case of the inception layer introduced in Googlenet. The network
provides good accuracy but causes high memory consumption due to a large number
of trainable parameters. As a solution to this problem, we introduced a whole
new architecture based on separable convolution. The idea of separable
convolution already exists in the field of image classification but not yet
introduces to text classification tasks. With the help of this architecture, we
can achieve a drastic reduction in trainable parameters.
- Abstract(参考訳): 管理には、ドキュメントを特定のカテゴリに分類し、それを行うために、ほとんどの組織は手作業を使用する。
今日の自動化の時代では、そのようなタスクに対する手作業は正当化されておらず、これを避けるために、市場にはたくさんのソフトウェアがあります。
しかし、効率性と資源消費の最小化が、競争の焦点となっている。
このような文書を機械によって特定のクラスに分類することは、優れた助けとなる。
分類手法の1つは畳み込みニューラルネットワーク(textcnn)を用いたテキスト分類である。
TextCNNは、Googlenetで導入された開始層のように、フィルタのサイズを多用している。
ネットワークは高い精度を提供するが、多くのトレーニング可能なパラメータのために高いメモリ消費を引き起こす。
この問題に対する解決策として,分離可能な畳み込みに基づくまったく新しいアーキテクチャを導入しました。
分離可能な畳み込みの概念は、画像分類の分野では既に存在するが、テキスト分類タスクにはまだ導入されていない。
このアーキテクチャの助けを借りれば、トレーニング可能なパラメータを大幅に削減することができます。
関連論文リスト
- Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Few-Shot Learning with Siamese Networks and Label Tuning [5.006086647446482]
適切な事前トレーニングを行うことで、テキストやラベルを埋め込むSiamese Networksが、競争力のある代替手段となることを示す。
ラベルの埋め込みだけを変えることで、数ショットのセットアップでモデルを適応できる、シンプルで計算効率の良い手法であるラベルチューニングを導入する。
論文 参考訳(メタデータ) (2022-03-28T11:16:46Z) - Towards Disentangling Information Paths with Coded ResNeXt [11.884259630414515]
ネットワーク全体の機能の透明性を高めるために,我々は新しいアプローチを採っている。
分類のためのニューラルネットワークアーキテクチャを提案し、各クラスに関連する情報が特定の経路を流れる。
論文 参考訳(メタデータ) (2022-02-10T21:45:49Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Deep Learning for Technical Document Classification [6.787004826008753]
本稿では,技術文書分類のためのマルチモーダル深層学習アーキテクチャTechDocについて述べる。
トレーニングされたモデルは、テキストと数字の両方で、数百万の現実世界の技術ドキュメントにスケールできる可能性がある。
論文 参考訳(メタデータ) (2021-06-27T16:12:47Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Does a Hybrid Neural Network based Feature Selection Model Improve Text
Classification? [9.23545668304066]
関連する特徴を得るためのハイブリッド特徴選択手法を提案する。
次に、特徴選択とニューラルネットワークパイプラインを実装する3つの方法を示す。
また,いくつかのデータセットの精度もわずかに向上した。
論文 参考訳(メタデータ) (2021-01-22T09:12:19Z) - Adaptive Hierarchical Decomposition of Large Deep Networks [4.272649614101117]
データセットが大きくなるにつれて、既存のディープラーニングアーキテクチャが一般的な人間によって認識可能な50以上のクラスを扱うように拡張できるかどうかという自然な疑問がある。
本稿では,単一大規模ネットワークの代替として,より小さなディープネットワーク群を自動解析し,構成するフレームワークを提案する。
結果として、より小さなネットワークは、高度にスケーラブルで、並列であり、訓練もより実践的であり、より高い分類精度を達成する。
論文 参考訳(メタデータ) (2020-07-17T21:04:50Z) - Text Classification with Few Examples using Controlled Generalization [58.971750512415134]
現在の実践は、トレーニング中に見えない単語を、類似した単語とマッピングするために、事前訓練された単語埋め込みに依存している。
私たちの代替案は、未ラベルのパースコーパスから派生したスパース事前訓練された表現から始まります。
これらのベクトル上のフィードフォワードネットワークは、特に低データシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2020-05-18T06:04:58Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。