論文の概要: Transformer-based Text Classification on Unified Bangla Multi-class
Emotion Corpus
- arxiv url: http://arxiv.org/abs/2210.06405v3
- Date: Tue, 13 Jun 2023 07:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 18:23:30.070403
- Title: Transformer-based Text Classification on Unified Bangla Multi-class
Emotion Corpus
- Title(参考訳): 統一バングラ多クラス感情コーパスのトランスフォーマーによるテキスト分類
- Authors: Md Sakib Ullah Sourav, Huidong Wang, Mohammad Sultan Mahmud, Hua Zheng
- Abstract要約: 怒り、嫌悪感、恐怖、喜び、悲しみ、驚きの6つのクラスに対して、バングラ感情分類器を提供する。
The Unified Bangla Multi-class Emotion Corpus (UBMEC) is used to evaluate the performance of our model。
- 参考スコア(独自算出の注目度): 0.9285295512807726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this research, we propose a complete set of approaches for identifying and
extracting emotions from Bangla texts. We provide a Bangla emotion classifier
for six classes: anger, disgust, fear, joy, sadness, and surprise, from Bangla
words using transformer-based models, which exhibit phenomenal results in
recent days, especially for high-resource languages. The Unified Bangla
Multi-class Emotion Corpus (UBMEC) is used to assess the performance of our
models. UBMEC is created by combining two previously released manually labeled
datasets of Bangla comments on six emotion classes with fresh manually labeled
Bangla comments created by us. The corpus dataset and code we used in this work
are publicly available.
- Abstract(参考訳): 本研究では,バングラ語テキストから感情を識別し抽出する手法の完全セットを提案する。
我々は,近年,特に高資源言語において,トランスフォーマーモデルを用いたバングラ語の怒り,嫌悪感,恐怖,悲しみ,驚きの6つのクラスに対する感情分類器を提供する。
統一バングラ・マルチクラス感情コーパス(ubmec)は,モデルの性能を評価するために用いられる。
UBMECは、6つの感情クラスにBanglaコメントの2つの手動ラベル付きデータセットと、私たちが開発した手動ラベル付きBanglaコメントを組み合わせたものだ。
この作業で使用したコーパスデータセットとコードは、公開されています。
関連論文リスト
- MONOVAB : An Annotated Corpus for Bangla Multi-label Emotion Detection [0.0]
感性分析(SA)と感情認識(ER)は、バングラ語でますます人気が高まっている。
しかし、この言語は構造的に複雑であるため、この領域は正確な方法で感情を抽出することが困難である。
本研究では,Facebookから抽出したデータに基づいて注釈付きコーパスを構築するための徹底的な手法を示す。
論文 参考訳(メタデータ) (2023-09-27T14:10:57Z) - Learning to Imagine: Visually-Augmented Natural Language Generation [73.65760028876943]
本稿では,事前学習型言語モデル(PLM)を視覚的に拡張した自然言語gEnerationのために学習する手法を提案する。
拡散モデルを用いて、入力テキストに条件付き高品質な画像を合成する。
段落全体に対して1つの画像のみを生成するのではなく、各文に対して合成を行う。
論文 参考訳(メタデータ) (2023-05-26T13:59:45Z) - BanglaNLG: Benchmarks and Resources for Evaluating Low-Resource Natural
Language Generation in Bangla [21.47743471497797]
本研究はバングラの自然言語生成モデルを評価するためのベンチマークを示す。
BanglaNLGベンチマークでは,3つの条件付きテキスト生成タスクを集約する。
クリーンコーパス27.5GBのBanglaデータを用いて、Banglaのシーケンス・ツー・シーケンス・トランスフォーマーモデルであるBanglaT5を事前訓練する。
BanglaT5はすべてのタスクで最先端のパフォーマンスを実現し、mT5(ベース)を最大5.4%上回っている。
論文 参考訳(メタデータ) (2022-05-23T06:54:56Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - Fine-Grained Image Generation from Bangla Text Description using
Attentional Generative Adversarial Network [0.0]
本稿では,高解像度のBanglaテキスト・画像生成のための多段階処理を可能にするBangla Attentional Generative Adversarial Network (AttnGAN)を提案する。
初めて、注目GANを用いてBanglaテキストからきめ細かい画像を生成する。
論文 参考訳(メタデータ) (2021-09-24T05:31:01Z) - End-to-End Natural Language Understanding Pipeline for Bangla
Conversational Agents [0.43012765978447565]
本稿では,バングラ語とバングラ語でコミュニケーション可能なビジネスアシスタントを構築するための新しい手法を提案する。
Rasa Open Source Framework、fastText組み込み、Polyglot組み込み、Fraskなどのシステムをビルディングブロックとして使用しています。
本稿では,意図分類と実体抽出のためのパイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-12T16:09:22Z) - EMOVIE: A Mandarin Emotion Speech Dataset with a Simple Emotional
Text-to-Speech Model [56.75775793011719]
音声ファイルを含む9,724のサンプルとその感情ラベル付きアノテーションを含むマンダリン感情音声データセットを導入,公開する。
入力として追加の参照音声を必要とするこれらのモデルとは異なり、我々のモデルは入力テキストから直接感情ラベルを予測し、感情埋め込みに基づいてより表現力のある音声を生成することができる。
実験段階では、まず感情分類タスクによってデータセットの有効性を検証し、次に提案したデータセットに基づいてモデルをトレーニングし、一連の主観評価を行う。
論文 参考訳(メタデータ) (2021-06-17T08:34:21Z) - Sentiment Classification in Bangla Textual Content: A Comparative Study [4.2394281761764]
本研究では,古典学習アルゴリズムと深層学習アルゴリズムの両方を用いて,公開されている感情ラベル付きデータセットと設計分類器について検討する。
以上の結果から,バングラではこれまで検討されていないトランスフォーマーモデルが,他のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-11-19T21:06:28Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。