論文の概要: CMSAOne@Dravidian-CodeMix-FIRE2020: A Meta Embedding and Transformer
model for Code-Mixed Sentiment Analysis on Social Media Text
- arxiv url: http://arxiv.org/abs/2101.09004v1
- Date: Fri, 22 Jan 2021 08:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 02:05:41.791113
- Title: CMSAOne@Dravidian-CodeMix-FIRE 2020: A Meta Embedding and Transformer
model for Code-Mixed Sentiment Analysis on Social Media Text
- Title(参考訳): cmsaone@dravidian-codemix-fire 2020:ソーシャルメディアテキストにおけるコード混合感情分析のためのメタ埋め込みおよびトランスフォーマーモデル
- Authors: Suman Dowlagar, Radhika Mamidi
- Abstract要約: コードミックス(CM)は、発話や文で複数の言語を使用する頻繁に観察される現象です。
感性分析(SA)はNLPの基本的なステップであり、モノリンガルテキストでよく研究されている。
本稿では,dravidian code-mixedデータセット上での感情分析のためのトランスフォーマによるメタ埋め込みを提案する。
- 参考スコア(独自算出の注目度): 9.23545668304066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code-mixing(CM) is a frequently observed phenomenon that uses multiple
languages in an utterance or sentence. CM is mostly practiced on various social
media platforms and in informal conversations. Sentiment analysis (SA) is a
fundamental step in NLP and is well studied in the monolingual text.
Code-mixing adds a challenge to sentiment analysis due to its non-standard
representations. This paper proposes a meta embedding with a transformer method
for sentiment analysis on the Dravidian code-mixed dataset. In our method, we
used meta embeddings to capture rich text representations. We used the proposed
method for the Task: "Sentiment Analysis for Dravidian Languages in Code-Mixed
Text", and it achieved an F1 score of $0.58$ and $0.66$ for the given Dravidian
code mixed data sets. The code is provided in the Github
https://github.com/suman101112 /fire-2020-Dravidian-CodeMix.
- Abstract(参考訳): コード混合(cm)は、発話または文において複数の言語を使用する頻繁に観察される現象である。
CMは主に様々なソーシャルメディアプラットフォームや非公式な会話で行われている。
感性分析(SA)はNLPの基本ステップであり、モノリンガルテキストでよく研究されている。
code-mixingは、その非標準表現のために感情分析に挑戦する。
本稿では,dravidian code-mixedデータセット上での感情分析のためのトランスフォーマによるメタ埋め込みを提案する。
提案手法では,リッチテキスト表現のキャプチャにメタ埋め込みを用いた。
提案手法は,「コード混合テキストにおけるドビダ語言語の強調分析」であり,与えられたドヴィダ語コード混合データセットに対して0.58$と0.66$のf1スコアを得た。
コードはGithub https://github.com/suman101112 /fire-2020-Dravidian-CodeMixで公開されている。
- 全文 参考訳へのリンク
関連論文リスト
- L3Cube-HingCorpus and HingBERT: A Code Mixed Hindi-English Dataset and
BERT Language Models [1.14219428942199]
L3Cube-HingCorpusは,ローマ文字で最初の大規模実ヒンディー語混成データである。
GLUECoSベンチマークから,コード混合感情分析,POSタグ付け,NER,LIDなどの下流タスクに対するBERTモデルの有効性を示す。
論文 参考訳(メタデータ) (2022-04-18T16:49:59Z) - Separate What You Describe: Language-Queried Audio Source Separation [53.65665794338574]
言語問合せ音声ソース分離(LASS)の課題について紹介する。
LASSは、ターゲットソースの自然言語クエリに基づいて、ターゲットソースをオーディオミックスから分離することを目的としている。
本稿では,音響情報と言語情報を協調処理するエンドツーエンドニューラルネットワークLASS-Netを提案する。
論文 参考訳(メタデータ) (2022-03-28T23:47:57Z) - Towards End-to-End Unified Scene Text Detection and Layout Analysis [60.68100769639923]
本稿では,シーンテキストの検出とレイアウト解析を統合化するタスクについて紹介する。
この新たな研究課題を実現するために、最初の階層的なシーンテキストデータセットが導入された。
また,シーンテキストを同時に検出し,テキストクラスタを統一的に形成する手法を提案する。
論文 参考訳(メタデータ) (2022-03-28T23:35:45Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z) - Pegasus@Dravidian-CodeMix-HASO C2021: Analyzing Social Media Content for
Detection of Offensive Text [0.0]
ソーシャルメディアプラットフォーム上の攻撃的なコメントや投稿は、個人、グループ、あるいは未成年者にも影響を及ぼす可能性がある。
HASOC - DravidianCodeMix FIRE 2021共有タスクの一部として、TamilとMarayalamという2つの人気のあるDravidian言語でコメントやポストを分類するために、Transformerベースのプロトタイプを2つ採用しています。
論文 参考訳(メタデータ) (2021-11-18T18:03:36Z) - IIITT@Dravidian-CodeMix-FIRE20 21: Transliterate or translate? Sentiment
analysis of code-mixed text in Dravidian languages [0.0]
本研究は,カナダ語,タミル語,マラヤラム語において,コードミキシングによるソーシャルメディアコメントの感情分析という形で,この研究に小さな貢献をしている。
FIRE 2021でDravidian-CodeMix氏が行った共有タスクの作業について説明している。
結果は,タミル,カナダ,マラヤラムの各タスクにおいて,最良モデルが4位,第5位,第10位であった研究論文に記録されている。
論文 参考訳(メタデータ) (2021-11-15T16:57:59Z) - PESTO: Switching Point based Dynamic and Relative Positional Encoding
for Code-Mixed Languages [1.7073542935233876]
CM言語に対する切替点に基づく位置符号化技術の適用に関する最初の観察結果を示す。
結果はSOTAよりわずかに優れているが、位置符号化はCMテキストに対する位置感受性言語モデルの訓練に有効な方法であることが明らかである。
論文 参考訳(メタデータ) (2021-11-12T08:18:21Z) - Video and Text Matching with Conditioned Embeddings [81.81028089100727]
本稿では,あるコーパスから与えられたビデオクリップにテキストをマッチングする方法と,その逆について述べる。
本研究では、クエリの関連情報を考慮し、データセットデータをエンコードする。
我々は、条件付き表現をビデオ誘導機械翻訳に転送し、VATEXの現在の結果を改善した。
論文 参考訳(メタデータ) (2021-10-21T17:31:50Z) - Contextual Hate Speech Detection in Code Mixed Text using Transformer
Based Approaches [0.0]
我々は,Twitterのコード混在テキストにおけるヘイトスピーチ検出の自動化手法を提案する。
通常のアプローチでは、テキストを個別に分析するが、親ツイートの形でコンテンツテキストも活用する。
独立表現を用いたデュアルエンコーダ方式により性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-18T14:05:36Z) - Exploiting BERT For Multimodal Target SentimentClassification Through
Input Space Translation [75.82110684355979]
オブジェクト認識変換器を用いて入力空間内の画像を変換する2ストリームモデルを提案する。
次に、翻訳を利用して、言語モデルに多モーダル情報を提供する補助文を構築する。
2つのマルチモーダルTwitterデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-08-03T18:02:38Z) - XLM-T: Scaling up Multilingual Machine Translation with Pretrained
Cross-lingual Transformer Encoders [89.0059978016914]
そこで本稿では,既製のクロスリンガルトランスフォーマでモデルを初期化し,多言語並列データで微調整するXLM-Tを提案する。
この単純な方法は,10対のWMTデータセットと94対のOPUS-100コーパスにおいて,大幅な改善を実現する。
論文 参考訳(メタデータ) (2020-12-31T11:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。