論文の概要: Music Recommendation System based on Emotion, Age and Ethnicity
- arxiv url: http://arxiv.org/abs/2212.04782v1
- Date: Fri, 9 Dec 2022 11:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 14:19:28.588857
- Title: Music Recommendation System based on Emotion, Age and Ethnicity
- Title(参考訳): 感情・年齢・民族性に基づく音楽推薦システム
- Authors: Ramiz Mammadli, Huma Bilgin, and Ali Can Karaca
- Abstract要約: 感情・年齢・民族性に基づく音楽推薦システムを開発した。
このような目的のために広く使われているCNNアーキテクチャは、モデルのトレーニングに応用されている。
インターフェースを通したユーザのスナップショットがモデルに送られ、そのムード、年齢、民族的起源を予測する。
- 参考スコア(独自算出の注目度): 2.867517731896504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A Music Recommendation System based on Emotion, Age, and Ethnicity is
developed in this study, using FER-2013 and ``Age, Gender, and Ethnicity (Face
Data) CSV'' datasets. The CNN architecture, which is extensively used for this
kind of purpose has been applied to the training of the models. After adding
several appropriate layers to the training end of the project, in total, 3
separate models are trained in the Deep Learning side of the project: Emotion,
Ethnicity, and Age. After the training step of these models, they are used as
classifiers on the web application side. The snapshot of the user taken through
the interface is sent to the models to predict their mood, age, and ethnic
origin. According to these classifiers, various kinds of playlists pulled from
Spotify API are proposed to the user in order to establish a functional and
user-friendly atmosphere for the music selection. Afterward, the user can
choose the playlist they want and listen to it by following the given link.
- Abstract(参考訳): 本研究では, FER-2013 と `Age, Gender, and Ethnicity (Face Data) CSV' のデータセットを用いて, 感情, 年齢, 民族性に基づく音楽推薦システムを開発した。
このような目的のために広く使われているCNNアーキテクチャは、モデルのトレーニングに応用されている。
プロジェクトのトレーニングエンドに適切なレイヤをいくつか追加した後、プロジェクト内のディープラーニング側で3つのモデル(感情、民族、年齢)をトレーニングします。
これらのモデルのトレーニングステップの後、Webアプリケーション側の分類器として使用される。
インターフェースを経由したユーザのスナップショットがモデルに送信され、ムード、年齢、民族的起源を予測する。
これらの分類器によれば、Spotify APIから抽出したさまざまなプレイリストがユーザに提案され、音楽選択のための機能的でユーザフレンドリな雰囲気を確立する。
その後、ユーザーは好きなプレイリストを選択し、そのリンクをフォローして聞くことができる。
関連論文リスト
- MusicRL: Aligning Music Generation to Human Preferences [62.44903326718772]
MusicRLは人間のフィードバックによって微調整された最初の音楽生成システムである。
ユーザに対してMusicLMをデプロイし,30,000対の選好からなる実質的なデータセットを収集する。
人間のフィードバックを大規模に組み込んだ最初のテキスト-音楽モデルであるMusicRL-Uを訓練する。
論文 参考訳(メタデータ) (2024-02-06T18:36:52Z) - Personalized Language Modeling from Personalized Human Feedback [55.458647587228185]
個人化された人間のフィードバックから学習するタスクを紹介し、この文脈でバニラRLHFが問題となる理由を説明する。
本稿では,ユーザモデルと言語(あるいは報酬)モデルを共同で学習する必要がある一般パーソナライズ-RLHFフレームワークを提案する。
提案手法の有効性を実証するために,注釈付き好みと注釈付き情報を用いた実世界のテキスト要約データを用いて検証を行った。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - From West to East: Who can understand the music of the others better? [91.78564268397139]
我々は、異なる音楽文化間の類似性についての洞察を導き出すために、伝達学習手法を活用する。
西洋音楽の2つのデータセット、地中海東部の文化に由来する伝統的・民族的な2つのデータセット、インドの芸術音楽に属する2つのデータセットを使用します。
CNNベースの2つのアーキテクチャとTransformerベースのアーキテクチャを含む3つのディープオーディオ埋め込みモデルがトレーニングされ、ドメイン間で転送される。
論文 参考訳(メタデータ) (2023-07-19T07:29:14Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - X2T: Training an X-to-Text Typing Interface with Online Learning from
User Feedback [83.95599156217945]
ユーザがキーボードを操作できないが、他の入力を供給できる、補助型タイピングアプリケーションに焦点を当てる。
標準メソッドは、ユーザ入力の固定データセット上でモデルをトレーニングし、そのミスから学ばない静的インターフェースをデプロイする。
このようなインターフェースが時間の経過とともに改善されるようなシンプルなアイデアを,ユーザによる最小限の努力で検討する。
論文 参考訳(メタデータ) (2022-03-04T00:07:20Z) - Deep Neural Network for Musical Instrument Recognition using MFCCs [0.6445605125467573]
楽器認識は、その音響によって楽器の識別を行うタスクである。
本稿では,20種類の楽器の分類を訓練した人工ニューラルネットワーク(ann)モデルを用いた。
論文 参考訳(メタデータ) (2021-05-03T15:10:34Z) - Listener Modeling and Context-aware Music Recommendation Based on
Country Archetypes [10.19712238203935]
音楽の好みは、リスナーの文化的・社会経済的背景によって強く形作られています。
我々は、最先端の教師なし学習技術を用いて、楽曲のきめ細かいレベルにおける音楽嗜好の国別プロファイルを調査する。
暗黙的なユーザフィードバックを活用する,コンテキスト対応の音楽レコメンデーションシステムを提案する。
論文 参考訳(メタデータ) (2020-09-11T17:59:04Z) - Time-Aware Music Recommender Systems: Modeling the Evolution of Implicit
User Preferences and User Listening Habits in A Collaborative Filtering
Approach [4.576379639081977]
本稿では,曲の演奏時期に関する時間的情報について考察する。
その目的は、ユーザの好みの進化を、暗黙の格付けとユーザの聴取行動の進化という形でモデル化することである。
本研究で提案する協調フィルタリング手法では,ユーザを特徴付け,より信頼性の高いレコメンデーションを提供するために,日々の聴取習慣を捉えている。
論文 参考訳(メタデータ) (2020-08-26T08:00:11Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - Dual-track Music Generation using Deep Learning [1.0312968200748118]
左利きと右利きのピアノ音楽の相互依存性をモデル化可能な,クラシックピアノ音楽を生成するための新しいデュアルトラックアーキテクチャを提案する。
評価手法として,MuseGANプロジェクトと真の音楽を比較した。
論文 参考訳(メタデータ) (2020-05-09T02:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。