論文の概要: DravidianMultiModality: A Dataset for Multi-modal Sentiment Analysis in
Tamil and Malayalam
- arxiv url: http://arxiv.org/abs/2106.04853v1
- Date: Wed, 9 Jun 2021 07:25:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 04:59:35.619426
- Title: DravidianMultiModality: A Dataset for Multi-modal Sentiment Analysis in
Tamil and Malayalam
- Title(参考訳): dravidian multimodality:タミルおよびマラヤラムにおけるマルチモーダル感情分析のためのデータセット
- Authors: Bharathi Raja Chakravarthi and Jishnu Parameswaran P.K and Premjith B
and K.P Soman and Rahul Ponnusamy and Prasanna Kumar Kumaresan and Kingston
Pal Thamburaj and John P. McCrae
- Abstract要約: 人間の感情と感情を分析することは、人工知能の新たな分野である。
アンダーリソースのDravidian言語で利用可能なマルチモーダルリソースは少ない。
これは、タミルとマラヤラムにとって、ボランティアアノテーターによる最初のマルチモーダル感情分析データセットである。
- 参考スコア(独自算出の注目度): 3.9308945270928777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human communication is inherently multimodal and asynchronous. Analyzing
human emotions and sentiment is an emerging field of artificial intelligence.
We are witnessing an increasing amount of multimodal content in local languages
on social media about products and other topics. However, there are not many
multimodal resources available for under-resourced Dravidian languages. Our
study aims to create a multimodal sentiment analysis dataset for the
under-resourced Tamil and Malayalam languages. First, we downloaded product or
movies review videos from YouTube for Tamil and Malayalam. Next, we created
captions for the videos with the help of annotators. Then we labelled the
videos for sentiment, and verified the inter-annotator agreement using Fleiss's
Kappa. This is the first multimodal sentiment analysis dataset for Tamil and
Malayalam by volunteer annotators.
- Abstract(参考訳): 人間のコミュニケーションは本質的にマルチモーダルで非同期である。
人間の感情や感情を分析することは、人工知能の新たな分野だ。
当社は、プロダクトやその他のトピックに関するソーシャルメディア上で、ローカル言語におけるマルチモーダルコンテンツの増加を目撃しています。
しかしながら、低リソースのDravidian言語で利用可能なマルチモーダルリソースは少ない。
本研究の目的は,タミル語とマラヤラム語のマルチモーダル感情分析データセットの構築である。
まず、YouTubeからTamilとMalayalamの製品または映画レビュービデオをダウンロードした。
次に、アノテーションを使ってビデオのキャプションを作成しました。
そして、ビデオに感情をラベル付けし、FleissのKappaを使ってアノテーション間の合意を検証した。
これはボランティアアノテーターによるタミルとマラヤラムのための最初のマルチモーダル感情分析データセットである。
関連論文リスト
- Large Language Models Meet Text-Centric Multimodal Sentiment Analysis: A Survey [66.166184609616]
ChatGPTは、テキスト中心のマルチモーダルタスクに大規模言語モデル(LLM)を適用する大きな可能性を開く。
既存のLLMがテキスト中心のマルチモーダル感情分析タスクにどのように適応できるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-06-12T10:36:27Z) - ArMeme: Propagandistic Content in Arabic Memes [9.48177009736915]
我々は,プロパガンダ的コンテンツの手動アノテーションを用いたアラビア・ミーム・データセットを開発した。
我々は,その検出のための計算ツールの開発を目的とした包括的解析を行う。
論文 参考訳(メタデータ) (2024-06-06T09:56:49Z) - M2SA: Multimodal and Multilingual Model for Sentiment Analysis of Tweets [4.478789600295492]
本稿では,既存のテキスト型Twitter感情データセットを,簡単なキュレーションプロセスを通じてマルチモーダルフォーマットに変換する。
本研究は,研究コミュニティにおける感情関連研究の新たな道を開くものである。
論文 参考訳(メタデータ) (2024-04-02T09:11:58Z) - Ensemble Language Models for Multilingual Sentiment Analysis [0.0]
SemEval-17のツイートテキストとアラビアセンティメントのつぶやきデータセットの感情分析について検討する。
その結果,単言語モデルでは性能が優れ,アンサンブルモデルではベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-03-10T01:39:10Z) - IruMozhi: Automatically classifying diglossia in Tamil [4.329125081222602]
Spoken Tamilは、現代のNLPシステムではサポートされていない。
IruMozhiは、LiteraryとSpken Tamilのパラレルテキストの人間による注釈付きデータセットである。
論文 参考訳(メタデータ) (2023-11-13T23:36:35Z) - MMT: A Multilingual and Multi-Topic Indian Social Media Dataset [1.0413233169366503]
ソーシャルメディアは異文化間コミュニケーションにおいて重要な役割を担っている。
多くはコードミキシングと多言語形式で行われる。
我々はTwitterから収集した大規模多言語・マルチトピックデータセット(MMT)を紹介する。
論文 参考訳(メタデータ) (2023-04-02T21:39:00Z) - TikTalk: A Video-Based Dialogue Dataset for Multi-Modal Chitchat in Real
World [97.58623810402563]
我々はTikTalkと呼ばれるビデオベースのマルチモーダル対話データセットを導入する。
人気ビデオ共有プラットフォームから38Kのビデオを収集し、その下のユーザーから367Kの会話を投稿した。
ユーザーはビデオのマルチモーダルな体験に基づいて自発的な会話をし、現実世界のchitchatコンテキストを再現する。
論文 参考訳(メタデータ) (2023-01-14T10:18:22Z) - 3MASSIV: Multilingual, Multimodal and Multi-Aspect dataset of Social
Media Short Videos [72.69052180249598]
ソーシャルメディアプラットフォームであるMojから抽出した多言語・多言語・多言語・多言語・多言語・多言語・専門的な短いビデオのデータセットである3MASSIVを提示する。
3MASSIVは、11言語で50Kのショートビデオ(平均20秒)と100Kの未ラベルビデオで構成されている。
本稿では,3MASSIVにおけるソーシャルメディアの内容がどのように動的かつ時間的であり,意味理解タスクや言語間分析に利用することができるかを示す。
論文 参考訳(メタデータ) (2022-03-28T02:47:01Z) - Exploiting BERT For Multimodal Target SentimentClassification Through
Input Space Translation [75.82110684355979]
オブジェクト認識変換器を用いて入力空間内の画像を変換する2ストリームモデルを提案する。
次に、翻訳を利用して、言語モデルに多モーダル情報を提供する補助文を構築する。
2つのマルチモーダルTwitterデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-08-03T18:02:38Z) - M2H2: A Multimodal Multiparty Hindi Dataset For Humor Recognition in
Conversations [72.81164101048181]
テレビシリーズ『Shrimaan Shrimati Phir Se』の13話から6,191発の発声を含む会話におけるマルチモーダル・マルチパーティ・ヒンディー・ヒューム(M2H2)認識のためのデータセットを提案する。
それぞれの発話はユーモア/非感情ラベルでアノテートされ、音響、視覚、テキストのモダリティを含む。
M2H2データセットにおける実験結果から,マルチモーダル情報はユーモア認識のための単調な情報を補完することが示された。
論文 参考訳(メタデータ) (2021-08-03T02:54:09Z) - Vyaktitv: A Multimodal Peer-to-Peer Hindi Conversations based Dataset
for Personality Assessment [50.15466026089435]
本稿では,ピアツーピアのHindi会話データセットであるVyaktitvを提案する。
参加者の高品質な音声とビデオの録音と、会話ごとにヒングリッシュのテキストによる書き起こしで構成されている。
データセットには、収入、文化的指向など、すべての参加者のための豊富な社会デコグラフィー的特徴が含まれています。
論文 参考訳(メタデータ) (2020-08-31T17:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。