論文の概要: Khmer Text Classification Using Word Embedding and Neural Networks
- arxiv url: http://arxiv.org/abs/2112.06748v1
- Date: Mon, 13 Dec 2021 15:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 19:27:22.990038
- Title: Khmer Text Classification Using Word Embedding and Neural Networks
- Title(参考訳): 単語埋め込みとニューラルネットワークを用いたkhmerテキスト分類
- Authors: Rina Buoy and Nguonly Taing and Sovisal Chenda
- Abstract要約: Khmerテキストの様々な分類手法について論じる。
Khmerワード埋め込みモデルは、ワードベクトル表現を構築するために、30万のKhmerワードコーパスで訓練される。
複数クラス・複数ラベルのテキスト分類タスクに対して,ニュース記事データセット上での異なるアプローチの性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text classification is one of the fundamental tasks in natural language
processing to label an open-ended text and is useful for various applications
such as sentiment analysis. In this paper, we discuss various classification
approaches for Khmer text, ranging from a classical TF-IDF algorithm with
support vector machine classifier to modern word embedding-based neural network
classifiers including linear layer model, recurrent neural network and
convolutional neural network. A Khmer word embedding model is trained on a
30-million-Khmer-word corpus to construct word vector representations that are
used to train three different neural network classifiers. We evaluate the
performance of different approaches on a news article dataset for both
multi-class and multi-label text classification tasks. The result suggests that
neural network classifiers using a word embedding model consistently outperform
the traditional classifier using TF-IDF. The recurrent neural network
classifier provides a slightly better result compared to the convolutional
network and the linear layer network.
- Abstract(参考訳): テキスト分類は、オープンエンドテキストをラベル付けする自然言語処理の基本的なタスクの1つであり、感情分析などの様々な応用に有用である。
本稿では,古典的なTF-IDFアルゴリズムによるベクトルマシン分類器から,線形層モデル,リカレントニューラルネットワーク,畳み込みニューラルネットワークを含む,現代的な単語埋め込み型ニューラルネットワーク分類器まで,クメールテキストの分類手法について論じる。
Khmerワード埋め込みモデルは、30万のKhmerワードコーパスでトレーニングされ、3つの異なるニューラルネットワーク分類器をトレーニングするために使用されるワードベクトル表現を構築する。
複数クラス・複数ラベルのテキスト分類タスクに対して,ニュース記事データセット上での異なるアプローチの性能を評価する。
その結果、単語埋め込みモデルを用いたニューラルネットワーク分類器はtf-idfを用いた従来の分類器を一貫して上回っていることが示唆された。
リカレントニューラルネットワーク分類器は、畳み込みネットワークや線形層ネットワークと比較してわずかに良い結果が得られる。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Multi-label Text Classification using GloVe and Neural Network Models [0.27195102129094995]
既存のソリューションには、予測のための従来の機械学習とディープニューラルネットワークが含まれる。
本稿では,GloVe モデルと CNN-BiLSTM ネットワークに基づくback-of-words モデル手法を提案する。
テストセットの精度は87.26%、F1スコアは0.8737であり、有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T01:30:26Z) - T3L: Translate-and-Test Transfer Learning for Cross-Lingual Text
Classification [50.675552118811]
言語間テキスト分類は通常、様々な言語で事前訓練された大規模多言語言語モデル(LM)に基づいて構築される。
本稿では,古典的な「翻訳とテスト」パイプラインを再考し,翻訳と分類の段階を適切に分離することを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:33:22Z) - Computing Class Hierarchies from Classifiers [12.631679928202516]
ニューラルネットワークからクラス階層を自動的に取得する新しいアルゴリズムを提案する。
我々のアルゴリズムは、よく知られたディープニューラルネットワークモデルに驚くほど優れた階層を生成する。
論文 参考訳(メタデータ) (2021-12-02T13:01:04Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Does a Hybrid Neural Network based Feature Selection Model Improve Text
Classification? [9.23545668304066]
関連する特徴を得るためのハイブリッド特徴選択手法を提案する。
次に、特徴選択とニューラルネットワークパイプラインを実装する3つの方法を示す。
また,いくつかのデータセットの精度もわずかに向上した。
論文 参考訳(メタデータ) (2021-01-22T09:12:19Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Effect of Word Embedding Models on Hate and Offensive Speech Detection [1.7403133838762446]
単語埋め込みモデルとニューラルネットワークアーキテクチャの両方が予測精度に与える影響について検討する。
まず、大規模なアラビア文字コーパスに複数の単語埋め込みモデルを訓練する。
検出タスク毎に、事前学習された単語埋め込みモデルを用いて、ニューラルネットワーク分類器を訓練する。
このタスクは多数の学習モデルをもたらし、徹底的な比較を可能にする。
論文 参考訳(メタデータ) (2020-11-23T02:43:45Z) - Combine Convolution with Recurrent Networks for Text Classification [12.92202472766078]
本稿では,2つのネットワークの強みを最大限に維持するための新しい手法を提案する。
提案モデルでは、畳み込みニューラルネットワークを用いて、各行が異なる側面から各単語の重要性を反映する2次元重み行列を学習する。
両方向のRNNを用いて各単語を処理し、前後に隠された状態を融合して単語表現を得る神経テンソル層を用いる。
論文 参考訳(メタデータ) (2020-06-29T03:36:04Z) - Aggregated Learning: A Vector-Quantization Approach to Learning Neural
Network Classifiers [48.11796810425477]
IB学習は、実際、量子化問題の特別なクラスと等価であることを示す。
ニューラルネットワークモデルを用いた分類のための新しい学習フレームワーク"集約学習"を提案する。
本フレームワークの有効性は,標準画像認識およびテキスト分類タスクに関する広範な実験を通じて検証される。
論文 参考訳(メタデータ) (2020-01-12T16:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。