論文の概要: User-centric Music Recommendations
- arxiv url: http://arxiv.org/abs/2505.11198v1
- Date: Fri, 16 May 2025 12:56:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.98251
- Title: User-centric Music Recommendations
- Title(参考訳): ユーザ中心の音楽レコメンデーション
- Authors: Jaime Ramirez Castillo, M. Julia Flores, Ann E. Nicholson,
- Abstract要約: この作業はユーザ中心のレコメンデーションフレームワークを提示します。
4つの異なる、接続され、カスタマイズ可能なフェーズを持つパイプラインとして設計されている。
これらのフェーズは、説明可能性を改善し、ユーザのエンゲージメントを高めることを目的としています。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This work presents a user-centric recommendation framework, designed as a pipeline with four distinct, connected, and customizable phases. These phases are intended to improve explainability and boost user engagement. We have collected the historical Last.fm track playback records of a single user over approximately 15 years. The collected dataset includes more than 90,000 playbacks and approximately 14,000 unique tracks. From track playback records, we have created a dataset of user temporal contexts (each row is a specific moment when the user listened to certain music descriptors). As music descriptors, we have used community-contributed Last.fm tags and Spotify audio features. They represent the music that, throughout years, the user has been listening to. Next, given the most relevant Last.fm tags of a moment (e.g. the hour of the day), we predict the Spotify audio features that best fit the user preferences in that particular moment. Finally, we use the predicted audio features to find tracks similar to these features. The final aim is to recommend (and discover) tracks that the user may feel like listening to at a particular moment. For our initial study case, we have chosen to predict only a single audio feature target: danceability. The framework, however, allows to include more target variables. The ability to learn the musical habits from a single user can be quite powerful, and this framework could be extended to other users.
- Abstract(参考訳): この作業では,4つの異なる,接続された,カスタマイズ可能なフェーズを備えたパイプラインとして設計された,ユーザ中心のレコメンデーションフレームワークを提示する。
これらのフェーズは、説明可能性を改善し、ユーザのエンゲージメントを高めることを目的としています。
約15年間にわたって、1人のユーザーによる過去のLast.fmトラック記録を収集してきた。
収集されたデータセットには90,000以上の再生と,約14,000のユニークなトラックが含まれている。
トラックレコード記録から、ユーザの時間的コンテキストのデータセットを作成しました(各行は、ユーザが特定の音楽ディスクリプタを聴いた特定の瞬間です)。
音楽ディスクリプタとして、コミュニティが配布するLast.fmタグとSpotifyオーディオ機能を使用しました。
音楽は、何年にもわたって、ユーザーが聴いている音楽を表している。
次に、ある瞬間の最も関連性の高いLast.fmタグ(例えば、その日の時間)を考えると、その瞬間のユーザの好みに最も合うSpotifyオーディオ機能を予測します。
最後に、予測音声機能を用いて、これらの機能に似たトラックを見つける。
最後の目的は、ユーザーが特定の瞬間に聴いたくなるようなトラックを推奨(そして発見)することである。
最初の研究ケースでは、1つのオーディオ特徴目標(ダンスビリティ)だけを予測することを選択しました。
しかし、このフレームワークはより多くのターゲット変数を含むことができる。
単一のユーザから音楽の習慣を学ぶ能力は非常に強力で、このフレームワークを他のユーザにも拡張することができる。
関連論文リスト
- Familiarizing with Music: Discovery Patterns for Different Music Discovery Needs [9.363492538580681]
我々は,大手音楽ストリーミングプラットフォームであるDeezerの利用者が回答した調査データと,ストリーミングデータとを組み合わせて分析した。
まず,不慣れな音楽に強い関心を抱くユーザーが,より多様な音楽に耳を傾けるかどうかを問う。
次に、不慣れな音楽を探究する際、ユーザーがどの曲を聴くかを調査し、人気度とジャンルの代表性の明確なパターンを特定する。
論文 参考訳(メタデータ) (2025-05-06T14:26:00Z) - Modeling Musical Genre Trajectories through Pathlet Learning [3.6133082266958616]
本稿では,辞書学習のパラダイムを用いて,さまざまなジャンルのユーザトラジェクトリをモデル化する。
我々は、パスレットと呼ばれるジャンルトラジェクトリにおける繰り返しパターンをキャプチャする新しいフレームワークを定義する。
その結果,パスレット学習は質的かつ定量的に分析可能な関連する聴取パターンを明らかにした。
論文 参考訳(メタデータ) (2025-05-06T12:33:40Z) - Kimi-Audio Technical Report [67.69331679172303]
Kimi-Audioは、オーディオ理解、生成、会話に優れたオープンソースのオーディオ基礎モデルである。
モデルアーキテクチャ、データキュレーション、トレーニングレシピ、推論デプロイメント、評価を含む、Kim-Audioの構築プラクティスについて詳述する。
論文 参考訳(メタデータ) (2025-04-25T15:31:46Z) - Enhancing Sequential Music Recommendation with Personalized Popularity Awareness [56.972624411205224]
本稿では、パーソナライズされた人気情報をシーケンシャルなレコメンデーションに組み込む新しいアプローチを提案する。
実験結果から、パーソナライズされた最もポピュラーなレコメンデータは、既存の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-06T15:05:12Z) - "All of Me": Mining Users' Attributes from their Public Spotify
Playlists [18.77632404384041]
人々は自分の音楽の好みを表現するために自分のプレイリストを作成し、公開します。
これらのパブリックアクセス可能なプレイリストは、ユーザの属性とアイデンティティに関する豊富な洞察の源となっている。
人口統計,習慣,性格特性など,ユーザの個人属性に関連付けられた繰り返し音楽的特徴の同定に焦点をあてる。
論文 参考訳(メタデータ) (2024-01-25T16:38:06Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Exploiting Device and Audio Data to Tag Music with User-Aware Listening
Contexts [8.224040855079176]
本研究では,ユーザを意識した楽曲自動タグを有効活用することにより,ユーザの状況に応じたプレイリストを一定時間で生成できるシステムを提案する。
実験により、このようなコンテキスト対応のパーソナライズされた楽曲検索システムは実現可能であるが、新規ユーザの場合は性能が低下することが示された。
論文 参考訳(メタデータ) (2022-11-14T10:08:12Z) - Time-Aware Music Recommender Systems: Modeling the Evolution of Implicit
User Preferences and User Listening Habits in A Collaborative Filtering
Approach [4.576379639081977]
本稿では,曲の演奏時期に関する時間的情報について考察する。
その目的は、ユーザの好みの進化を、暗黙の格付けとユーザの聴取行動の進化という形でモデル化することである。
本研究で提案する協調フィルタリング手法では,ユーザを特徴付け,より信頼性の高いレコメンデーションを提供するために,日々の聴取習慣を捉えている。
論文 参考訳(メタデータ) (2020-08-26T08:00:11Z) - Ambient Sound Helps: Audiovisual Crowd Counting in Extreme Conditions [64.43064637421007]
本稿では,視覚情報と聴覚情報を統合してカウントする,視覚的群集カウントという新しいタスクを紹介する。
大規模なベンチマークであるauDiovISual Crowd cOuntingデータセットを収集します。
我々は,視覚的特徴と聴覚的特徴のアフィン変換を行う線形特徴量融合モジュールを利用する。
論文 参考訳(メタデータ) (2020-05-14T16:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。