論文の概要: GeeSanBhava: Sentiment Tagged Sinhala Music Video Comment Data Set
- arxiv url: http://arxiv.org/abs/2511.18146v1
- Date: Sat, 22 Nov 2025 18:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.651232
- Title: GeeSanBhava: Sentiment Tagged Sinhala Music Video Comment Data Set
- Title(参考訳): GeeSanBhava: Sinhala Musicビデオコメントデータセットの感想
- Authors: Yomal De Mel, Nisansa de Silva,
- Abstract要約: 本稿では,3つの独立アノテータによるRussells Valence-Arousalモデルを用いて手動でタグ付けした,Sinhalaのコメントの高品質データセットであるGeeSanBhavaを紹介する。
分析の結果、異なる曲に対する異なる感情プロファイルが明らかとなり、コメントに基づく感情マッピングの重要性が強調された。
- 参考スコア(独自算出の注目度): 1.4712349476860904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study introduce GeeSanBhava, a high-quality data set of Sinhala song comments extracted from YouTube manually tagged using Russells Valence-Arousal model by three independent human annotators. The human annotators achieve a substantial inter-annotator agreement (Fleiss kappa = 84.96%). The analysis revealed distinct emotional profiles for different songs, highlighting the importance of comment based emotion mapping. The study also addressed the challenges of comparing comment-based and song-based emotions, mitigating biases inherent in user-generated content. A number of Machine learning and deep learning models were pre-trained on a related large data set of Sinhala News comments in order to report the zero-shot result of our Sinhala YouTube comment data set. An optimized Multi-Layer Perceptron model, after extensive hyperparameter tuning, achieved a ROC-AUC score of 0.887. The model is a three-layer MLP with a configuration of 256, 128, and 64 neurons. This research contributes a valuable annotated dataset and provides insights for future work in Sinhala Natural Language Processing and music emotion recognition.
- Abstract(参考訳): 本稿では,3つの独立アノテータによるRussells Valence-Arousalモデルを用いて手動でタグ付けした,Sinhalaのコメントの高品質データセットであるGeeSanBhavaを紹介する。
ヒトのアノテータは、実質的なアノテータ間合意(Fleiss kappa = 84.96%)を達成している。
分析の結果、異なる曲に対する異なる感情プロファイルが明らかとなり、コメントに基づく感情マッピングの重要性が強調された。
この研究はまた、コメントベースの感情と歌ベースの感情を比較し、ユーザー生成コンテンツに固有のバイアスを軽減するという課題についても論じている。
Sinhala Newsのコメントデータセットのゼロショット結果を報告するために、関連する大規模なデータセットのSinhala Newsコメントに対して、機械学習とディープラーニングのモデルが事前トレーニングされました。
最適化されたMulti-Layer Perceptronモデルは、広範囲なハイパーパラメータチューニングを経て、ROC-AUCスコア0.887を達成した。
モデルは256, 18, 64ニューロンの3層MLPである。
本研究は,Sinhala Natural Language Processingと音楽感情認識における将来的な研究に対する洞察を提供する,貴重な注釈付きデータセットを提供する。
関連論文リスト
- From Joy to Fear: A Benchmark of Emotion Estimation in Pop Song Lyrics [40.12543056558646]
歌詞の感情的内容は、聴取者の体験を形作り、音楽的嗜好に影響を与える上で重要な役割を担っている。
本稿では,6つの基本感情に対応する6つの感情強度スコアを予測し,歌詞のマルチラベル感情属性の課題について検討する。
論文 参考訳(メタデータ) (2025-09-06T06:28:28Z) - A Multimodal Symphony: Integrating Taste and Sound through Generative AI [1.2749527861829049]
本稿では味覚情報を音楽に変換するマルチモーダル生成モデルについて述べる。
本稿では,各楽曲に提供される詳細な味覚記述に基づいて,音楽生成モデル(MusicGEN)の微調整版を用いて音楽を生成する実験を行う。
論文 参考訳(メタデータ) (2025-03-04T17:48:48Z) - Linguistic Analysis of Sinhala YouTube Comments on Sinhala Music Videos: A Dataset Study [0.2630859234884724]
本研究では,音楽情報検索(MIR)と音楽感情認識(MER)の領域について,シンハラの楽曲との関連について検討する。
本研究の目的は,YouTube Sinhalaの楽曲ビデオにおけるSinhalaコメントの挙動を,ソーシャルメディアコメントを一次データソースとして分析することである。
論文 参考訳(メタデータ) (2025-01-28T09:46:45Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Learning from Synthetic Data for Visual Grounding [55.21937116752679]
そこで本研究では,SynGroundが市販のビジョン・アンド・ランゲージモデルのローカライズ能力を向上できることを示す。
SynGroundで生成されたデータは、事前訓練されたALBEFモデルとBLIPモデルのポインティングゲーム精度をそれぞれ4.81%、絶対パーセンテージポイント17.11%向上させる。
論文 参考訳(メタデータ) (2024-03-20T17:59:43Z) - MERT: Acoustic Music Understanding Model with Large-Scale Self-supervised Training [74.32603591331718]
本稿では,MLMスタイルの音響事前学習において,教師モデルと擬似ラベルを組み込んだ大規模自己教師型学習(MERT)を用いた音響音楽理解モデルを提案する。
実験結果から,本モデルでは14曲の楽曲理解タスクを一般化し,性能を向上し,SOTA(State-of-the-art)全体のスコアを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-31T18:27:43Z) - The Contribution of Lyrics and Acoustics to Collaborative Understanding
of Mood [7.426508199697412]
データ駆動分析により歌詞と気分の関連性を検討した。
われわれのデータセットは100万曲近くで、Spotifyのストリーミングプラットフォーム上のユーザープレイリストから曲とムードのアソシエーションが生まれている。
我々は、トランスフォーマーに基づく最先端の自然言語処理モデルを利用して、歌詞と気分の関係を学習する。
論文 参考訳(メタデータ) (2022-05-31T19:58:41Z) - Learning to Generate Music With Sentiment [1.8275108630751844]
本稿では,特定の感情で音楽を構成するための生成的深層学習モデルを提案する。
音楽生成の他に、シンボリック音楽の感情分析にも同じモデルを用いることができる。
論文 参考訳(メタデータ) (2021-03-09T03:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。