論文の概要: RSM-NLP at BLP-2023 Task 2: Bangla Sentiment Analysis using Weighted and
Majority Voted Fine-Tuned Transformers
- arxiv url: http://arxiv.org/abs/2310.14261v1
- Date: Sun, 22 Oct 2023 10:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 00:51:59.262263
- Title: RSM-NLP at BLP-2023 Task 2: Bangla Sentiment Analysis using Weighted and
Majority Voted Fine-Tuned Transformers
- Title(参考訳): BLP-2023タスク2におけるRSM-NLP:Bangla Sentiment Analysis using Weighted and Majority Voted Fine-Tuned Transformers
- Authors: Pratinav Seth, Rashi Goel, Komal Mathur and Swetha Vemulapalli
- Abstract要約: 本稿では,BLP Workshop - Sentiment Analysis of Bangla Social Media Postsで行った投稿に対するアプローチについて述べる。
マルチクラス分類タスクでは0.711, 共有タスクでは10位となった。
- 参考スコア(独自算出の注目度): 2.048226951354646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes our approach to submissions made at Shared Task 2 at BLP
Workshop - Sentiment Analysis of Bangla Social Media Posts. Sentiment Analysis
is an action research area in the digital age. With the rapid and constant
growth of online social media sites and services and the increasing amount of
textual data, the application of automatic Sentiment Analysis is on the rise.
However, most of the research in this domain is based on the English language.
Despite being the world's sixth most widely spoken language, little work has
been done in Bangla. This task aims to promote work on Bangla Sentiment
Analysis while identifying the polarity of social media content by determining
whether the sentiment expressed in the text is Positive, Negative, or Neutral.
Our approach consists of experimenting and finetuning various multilingual and
pre-trained BERT-based models on our downstream tasks and using a Majority
Voting and Weighted ensemble model that outperforms individual baseline model
scores. Our system scored 0.711 for the multiclass classification task and
scored 10th place among the participants on the leaderboard for the shared
task. Our code is available at https://github.com/ptnv-s/RSM-NLP-BLP-Task2 .
- Abstract(参考訳): 本稿では,BLP Workshop - Sentiment Analysis of Bangla Social Media PostsのShared Task 2における投稿に対するアプローチについて述べる。
センチメント分析(Sentiment Analysis)は、デジタル時代の行動研究分野である。
オンラインソーシャルメディアサイトやサービスの急速な成長とテキストデータの量の増加により、自動感性分析の応用が増加している。
しかし、この領域の研究の大部分は英語に基づいている。
世界で6番目に広く話されている言語であるにもかかわらず、バングラ語ではほとんど行われていない。
本課題は,文章に表される感情が肯定的か否定的か中立かを判断することで,ソーシャルメディアコンテンツの極性を特定しつつ,Bangla Sentiment Analysisの研究を促進することである。
提案手法は、下流タスクにおける多言語および事前訓練されたBERTモデルの実験と微調整と、個別のベースラインモデルスコアよりも優れたMajority Voting and Weightedアンサンブルモデルを用いて構成する。
本システムでは,マルチクラス分類タスクでは0.711点,共有タスクではリーダーボードでは10位となった。
私たちのコードはhttps://github.com/ptnv-s/RSM-NLP-BLP-Task2で利用可能です。
関連論文リスト
- PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - Motamot: A Dataset for Revealing the Supremacy of Large Language Models over Transformer Models in Bengali Political Sentiment Analysis [0.0]
政治的感情を分析することは、特に選挙期間中の世論過程の複雑さを理解するために重要である。
本研究は, 肯定的, 否定的な感情を付加した7,058件からなる「モタモット」データセットの作成に焦点を当てた。
バングラバート,バングラバートベース,XLM-RoBERTa,mBERT,sahajBERT,およびジェミニ1.5 Pro,GPT3.5 TurboなどのPLMの性能評価を行った。
論文 参考訳(メタデータ) (2024-07-28T16:34:53Z) - Narrative Action Evaluation with Prompt-Guided Multimodal Interaction [60.281405999483]
ナラティブ・アクション・アセスメント(NAE)は、行動の実行を評価する専門家のコメントを作成することを目的としている。
NAEは、物語の柔軟性と評価の厳格さの両方を必要とするため、より困難なタスクです。
本稿では,様々な情報モダリティ間のインタラクションを容易にするための,プロンプト誘導型マルチモーダルインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:55:07Z) - nlpBDpatriots at BLP-2023 Task 2: A Transfer Learning Approach to Bangla
Sentiment Analysis [7.3481279783709805]
本稿では,Bangla Social Media Postsの感性分析における共有タスクへのnlpBDpatriots導入について論じる。
このタスクの主な目的は、ポジティブ、中立、ネガティブなラベルでアノテートされたBanglaデータセットを用いて、ソーシャルメディアコンテンツの極性を特定することである。
私たちのベストシステムは、この競技に参加した30チームの中で12位でした。
論文 参考訳(メタデータ) (2023-11-25T13:58:58Z) - LowResource at BLP-2023 Task 2: Leveraging BanglaBert for Low Resource
Sentiment Analysis of Bangla Language [0.5922488908114022]
本稿では,BLP-2023のタスク2におけるLowResource Teamのシステムについて述べる。
さまざまなソーシャルメディアプラットフォームからの公開投稿とコメントからなるデータセットで感情分析を行う。
我々の主な目的は、Bangla corpusで事前訓練されたBERTモデルであるBanglaBertを利用することです。
論文 参考訳(メタデータ) (2023-11-21T17:21:15Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - BanglaNLP at BLP-2023 Task 2: Benchmarking different Transformer Models
for Sentiment Analysis of Bangla Social Media Posts [0.46040036610482665]
本稿では,BLPワークショップ第2タスク(Bangla Social Media Posts の感性分析)について紹介する。
我々の定量的結果は、トランスファーラーニングが、この低リソース言語シナリオにおけるモデルのより優れた学習に役立つことを示している。
テストセットで67.02%のマイクロF1を取得し、この共有タスクのパフォーマンスをリーダーボードで21にランク付けする。
論文 参考訳(メタデータ) (2023-10-13T16:46:38Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - A Review of Bangla Natural Language Processing Tasks and the Utility of
Transformer Models [2.5768647103950357]
研究コミュニティで利用可能なBangla NLPタスク、リソース、ツールについてレビューする。
我々は、現在最先端のアルゴリズムを用いて、9つのNLPタスクのために、さまざまなプラットフォームから収集されたデータセットをベンチマークした。
個人と統合されたデータセットを用いてその結果を報告し、今後の研究のためのデータを提供する。
論文 参考訳(メタデータ) (2021-07-08T13:49:46Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。