論文の概要: Emotion-aware Personalized Music Recommendation with a Heterogeneity-aware Deep Bayesian Network
- arxiv url: http://arxiv.org/abs/2406.14090v2
- Date: Fri, 29 Nov 2024 13:43:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:16:41.705548
- Title: Emotion-aware Personalized Music Recommendation with a Heterogeneity-aware Deep Bayesian Network
- Title(参考訳): 不均一性を考慮したディープベイズネットワークによる感情認識型パーソナライズド音楽レコメンデーション
- Authors: Erkang Jing, Yezheng Liu, Yidong Chai, Shuo Yu, Longshun Liu, Yuanchun Jiang, Yang Wang,
- Abstract要約: 我々はこれらの仮定をモデル化するヘテロジニティ対応ディープベイズネットワーク(HDBN)を提案する。
HDBNは、4つのコンポーネントで音楽を選択するというユーザの決定過程を模倣している。
提案手法は,HR,Precision,NDCG,MRRの指標に対するベースラインアプローチよりも有意に優れている。
- 参考スコア(独自算出の注目度): 8.844728473984766
- License:
- Abstract: Music recommender systems play a critical role in music streaming platforms by providing users with music that they are likely to enjoy. Recent studies have shown that user emotions can influence users' preferences for music moods. However, existing emotion-aware music recommender systems (EMRSs) explicitly or implicitly assume that users' actual emotional states expressed through identical emotional words are homogeneous. They also assume that users' music mood preferences are homogeneous under the same emotional state. In this article, we propose four types of heterogeneity that an EMRS should account for: emotion heterogeneity across users, emotion heterogeneity within a user, music mood preference heterogeneity across users, and music mood preference heterogeneity within a user. We further propose a Heterogeneity-aware Deep Bayesian Network (HDBN) to model these assumptions. The HDBN mimics a user's decision process of choosing music with four components: personalized prior user emotion distribution modeling, posterior user emotion distribution modeling, user grouping, and Bayesian neural network-based music mood preference prediction. We constructed two datasets, called EmoMusicLJ and EmoMusicLJ-small, to validate our method. Extensive experiments demonstrate that our method significantly outperforms baseline approaches on metrics of HR, Precision, NDCG, and MRR. Ablation studies and case studies further validate the effectiveness of our HDBN. The source code and datasets are available at https://github.com/jingrk/HDBN.
- Abstract(参考訳): 音楽レコメンデーターシステムは、ユーザーが楽しむであろう音楽を提供することによって、音楽ストリーミングプラットフォームにおいて重要な役割を果たす。
近年の研究では、ユーザの感情が音楽の気分に対するユーザの嗜好に影響を与えることが示されている。
しかし、既存の感情認識音楽推薦システム(EMRS)は、ユーザの実際の感情状態が同一の感情的単語を通して表現されていることを明示的または暗黙的に仮定する。
また、同じ感情状態下では、ユーザの音楽の気分の嗜好が均質であると仮定する。
本稿では,EMRSが考慮すべき4つの異種性について提案する。ユーザ間の感情の不均一性,ユーザ間の感情の不均一性,ユーザ間の音楽の気分の嗜好の不均一性,ユーザ間の音楽の気分の嗜好の不均一性である。
さらに、これらの仮定をモデル化するヘテロジニティ対応ディープベイズネットワーク(HDBN)を提案する。
HDBNは、パーソナライズされたユーザ感情分布モデリング、後続ユーザ感情分布モデリング、ユーザグループ化、ベイジアンニューラルネットワークに基づく音楽感情嗜好予測という、4つのコンポーネントで音楽を選択するユーザの決定過程を模倣する。
提案手法を検証するため,EmoMusicLJとEmoMusicLJ-smallという2つのデータセットを構築した。
本手法はHR, 精度, NDCG, MRRの計測値において, ベースライン手法よりも有意に優れていた。
アブレーション研究とケーススタディにより,HDBNの有効性がさらに検証された。
ソースコードとデータセットはhttps://github.com/jingrk/HDBNで公開されている。
関連論文リスト
- Enhancing Sequential Music Recommendation with Personalized Popularity Awareness [56.972624411205224]
本稿では、パーソナライズされた人気情報をシーケンシャルなレコメンデーションに組み込む新しいアプローチを提案する。
実験結果から、パーソナライズされた最もポピュラーなレコメンデータは、既存の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-06T15:05:12Z) - Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - Music Emotion Prediction Using Recurrent Neural Networks [8.867897390286815]
本研究は,聴取者の感情状態に合うように音楽を調整することで,音楽レコメンデーションシステムを強化し,治療介入を支援することを目的とする。
ラッセルの感情クアドラントを用いて、音楽を4つの異なる感情領域に分類し、これらのカテゴリーを正確に予測できるモデルを開発する。
我々のアプローチは、Librosaを使って包括的なオーディオ機能を抽出し、標準RNN、双方向RNN、Long Short-Term Memory(LSTM)ネットワークなど、さまざまなリカレントニューラルネットワークアーキテクチャを適用します。
論文 参考訳(メタデータ) (2024-05-10T18:03:20Z) - Emotion-Aware Music Recommendation System: Enhancing User Experience
Through Real-Time Emotional Context [1.3812010983144802]
本研究では,従来の音楽レコメンデーションシステムにおいて,ユーザの音楽選択を形作る上で,感情が重要な役割を担っていることに焦点をあてる。
歌のレコメンデーションプロセスに感情的コンテキストを取り入れたAIモデルを導入する。
リアルタイムの感情を正確に検出することで、モデルはユーザーの感情状態に合わせてパーソナライズされた歌のレコメンデーションを生成することができる。
論文 参考訳(メタデータ) (2023-11-17T05:55:36Z) - Fairness Through Domain Awareness: Mitigating Popularity Bias For Music
Discovery [56.77435520571752]
音楽発見と人気バイアスの本質的な関係について検討する。
本稿では,グラフニューラルネットワーク(GNN)に基づくレコメンデータシステムにおいて,人気バイアスに対処する,ドメイン対応の個別フェアネスに基づくアプローチを提案する。
我々のアプローチでは、個々の公正さを用いて、真実を聴く経験、すなわち2つの歌が似ているとすると、この類似性は彼らの表現に反映されるべきである。
論文 参考訳(メタデータ) (2023-08-28T14:12:25Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Psychologically-Inspired Music Recommendation System [3.032299122358857]
感情認識型MSSを構築するために,聴取者の性格と現在の感情状態と音声特徴を関連づけることを模索する。
この結果とSpotify APIデータに基づく従来のMSSの出力とを定量的に定性的に比較し,音楽レコメンデーションの質に大きな影響を与えるかどうかを検証した。
論文 参考訳(メタデータ) (2022-05-06T19:38:26Z) - Comparison and Analysis of Deep Audio Embeddings for Music Emotion
Recognition [1.6143012623830792]
音楽感情認識タスクに使用するために,最先端の事前学習した深層音声埋め込み手法を用いる。
深い音声埋め込みは、人間工学を使わずにmerタスクのための音楽的感情意味論を表す。
論文 参考訳(メタデータ) (2021-04-13T21:09:54Z) - Emotion-Based End-to-End Matching Between Image and Music in
Valence-Arousal Space [80.49156615923106]
イメージと音楽に類似した感情を合わせることは、感情の知覚をより鮮明で強くするのに役立つ。
既存の感情に基づく画像と音楽のマッチング手法では、限られたカテゴリーの感情状態を使用するか、非現実的なマルチステージパイプラインを使用してマッチングモデルを訓練する。
本稿では,連続的原子価覚醒空間(VA)における感情に基づく画像と音楽のエンドツーエンドマッチングについて検討する。
論文 参考訳(メタデータ) (2020-08-22T20:12:23Z) - An End-to-End Visual-Audio Attention Network for Emotion Recognition in
User-Generated Videos [64.91614454412257]
畳み込みニューラルネットワーク(CNN)に基づくエンドツーエンドの映像感情認識を提案する。
具体的には,空間的,チャネル的,時間的注意を視覚的に3D CNNに統合し,時間的注意をオーディオ2D CNNに組み込む新しいアーキテクチャである,深層ビジュアル・オーディオ・アテンション・ネットワーク(VAANet)を開発した。
論文 参考訳(メタデータ) (2020-02-12T15:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。