論文の概要: A Precisely Xtreme-Multi Channel Hybrid Approach For Roman Urdu
Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2003.05443v1
- Date: Wed, 11 Mar 2020 04:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:30:57.861311
- Title: A Precisely Xtreme-Multi Channel Hybrid Approach For Roman Urdu
Sentiment Analysis
- Title(参考訳): ローマ・ウルドゥ感情分析のためのxtreme-multi channel hybrid approach
- Authors: Faiza Memood, Muhammad Usman Ghani, Muhammad Ali Ibrahim, Rehab
Shehzadi, Muhammad Nabeel Asim
- Abstract要約: 本稿では,Word2vec,FastText,Gloveという,最も広く使われているアプローチを用いて構築した3つのニューラルワード埋め込みについて述べる。
公開されているベンチマークデータセットが欠如していることを考えると、初となるRoman Urduデータセットを提供しており、正、負、中立のクラスに対して注釈付けされた3241の感情で構成されている。
最先端の機械とディープラーニングの手法を、F1スコアで9%、F1スコアで4%で上回る、極めて極端なマルチチャネルハイブリッド手法を提案する。
- 参考スコア(独自算出の注目度): 0.8812173669205371
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In order to accelerate the performance of various Natural Language Processing
tasks for Roman Urdu, this paper for the very first time provides 3 neural word
embeddings prepared using most widely used approaches namely Word2vec,
FastText, and Glove. The integrity of generated neural word embeddings is
evaluated using intrinsic and extrinsic evaluation approaches. Considering the
lack of publicly available benchmark datasets, it provides a first-ever Roman
Urdu dataset which consists of 3241 sentiments annotated against positive,
negative and neutral classes. To provide benchmark baseline performance over
the presented dataset, we adapt diverse machine learning (Support Vector
Machine Logistic Regression, Naive Bayes), deep learning (convolutional neural
network, recurrent neural network), and hybrid approaches. Effectiveness of
generated neural word embeddings is evaluated by comparing the performance of
machine and deep learning based methodologies using 7, and 5 distinct feature
representation approaches respectively. Finally, it proposes a novel precisely
extreme multi-channel hybrid methodology which outperforms state-of-the-art
adapted machine and deep learning approaches by the figure of 9%, and 4% in
terms of F1-score. Roman Urdu Sentiment Analysis, Pretrain word embeddings for
Roman Urdu, Word2Vec, Glove, Fast-Text
- Abstract(参考訳): ローマン・ウルドゥーの自然言語処理タスクの性能向上のために,この論文はWord2vecやFastText,Gloveといった最も広く使われているアプローチを用いて構築された3つのニューラルワード埋め込みを提供する。
生成した単語埋め込みの完全性は内在的および外在的評価手法を用いて評価される。
公開されているベンチマークデータセットの欠如を考慮すると、ローマ字のurduデータセットが3241の感情からなり、ポジティブな、ネガティブな、中立的なクラスに注釈を付ける。
提示されたデータセットに対するベンチマークベースラインのパフォーマンスを提供するために、多様な機械学習(サポートベクターマシンロジスティック回帰、ナイーブベイズ)、ディープラーニング(畳み込みニューラルネットワーク、リカレントニューラルネットワーク)、ハイブリッドアプローチを適応させる。
生成したニューラルネットワークの埋め込みの有効性は, それぞれ7と5つの特徴表現アプローチを用いて, 機械学習と深層学習の手法の性能を比較して評価する。
最後に,最先端の適応型マシンとディープラーニングのアプローチを9%,f1-scoreでは4%の精度で上回る,高精度なマルチチャネルハイブリッド手法を提案する。
ローマ語ウルドゥー語の感情分析, ローマ語ウルドゥー語, word2vec, glove, fast-textのための事前学習語埋め込み
関連論文リスト
- A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - Improving Sampling Methods for Fine-tuning SentenceBERT in Text Streams [49.3179290313959]
本研究では,選択的な微調整言語モデルの設計した7つのテキストサンプリング手法の有効性について検討した。
これらの手法がSBERTモデルの微調整に与える影響を, 4つの異なる損失関数を用いて正確に評価する。
その結果,テキストストリームの分類にはソフトマックスの損失とバッチ・オール・トリプレットの損失が特に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T23:41:52Z) - Multi-label Text Classification using GloVe and Neural Network Models [0.27195102129094995]
既存のソリューションには、予測のための従来の機械学習とディープニューラルネットワークが含まれる。
本稿では,GloVe モデルと CNN-BiLSTM ネットワークに基づくback-of-words モデル手法を提案する。
テストセットの精度は87.26%、F1スコアは0.8737であり、有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T01:30:26Z) - Language Model Decoding as Direct Metrics Optimization [87.68281625776282]
現在の復号法は、異なる側面にわたる人間のテキストと整合するテキストを生成するのに苦労している。
本研究では,言語モデルからの復号化を最適化問題として,期待される性能と人間のテキストとの厳密なマッチングを目的とした。
この誘導分布は,人間のテキストの難易度を向上させることが保証されていることを証明し,人間のテキストの基本的な分布に対するより良い近似を示唆する。
論文 参考訳(メタデータ) (2023-10-02T09:35:27Z) - Khmer Text Classification Using Word Embedding and Neural Networks [0.0]
Khmerテキストの様々な分類手法について論じる。
Khmerワード埋め込みモデルは、ワードベクトル表現を構築するために、30万のKhmerワードコーパスで訓練される。
複数クラス・複数ラベルのテキスト分類タスクに対して,ニュース記事データセット上での異なるアプローチの性能を評価する。
論文 参考訳(メタデータ) (2021-12-13T15:57:32Z) - An Attention Ensemble Approach for Efficient Text Classification of
Indian Languages [0.0]
本稿では,インド・デヴァナガリ文字を母語とするマラーティー語における短文文書の細かな技術領域識別について述べる。
畳み込みニューラルネットワークが生成する中間文表現と双方向の長期記憶とを合体させ,効率的なテキスト分類を実現するcnn-bilstm注意アンサンブルモデルを提案する。
実験結果から,提案モデルが与えられたタスクにおける各種ベースライン機械学習および深層学習モデルより優れ,89.57%,f1スコア0.8875の検証精度が得られた。
論文 参考訳(メタデータ) (2021-02-20T07:31:38Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning [134.77207192945053]
従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-11T17:42:49Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z) - SeMemNN: A Semantic Matrix-Based Memory Neural Network for Text
Classification [15.111940377403252]
本稿では,エンド・ツー・エンドの学習方法を用いて,セマンティック・マトリックス・ベースのメモリ・ニューラル・ネットワークのための5つの異なる構成を提案する。
提案手法を2つのニュース記事のコーパス(AGニュース, Sogouニュース)で評価する。
論文 参考訳(メタデータ) (2020-03-04T02:00:57Z) - Benchmark Performance of Machine And Deep Learning Based Methodologies
for Urdu Text Document Classification [4.1353427192071015]
本稿では,Urduテキスト文書分類におけるベンチマーク性能について述べる。
従来の機械学習に基づくUrduテキスト文書分類手法の性能への影響について検討する。
初めて、Urduテキスト文書分類のための様々な深層学習手法の性能を解析した。
論文 参考訳(メタデータ) (2020-03-03T05:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。