論文の概要: Track Mix Generation on Music Streaming Services using Transformers
- arxiv url: http://arxiv.org/abs/2307.03045v1
- Date: Thu, 6 Jul 2023 15:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 13:34:21.822896
- Title: Track Mix Generation on Music Streaming Services using Transformers
- Title(参考訳): 変圧器を用いた音楽ストリーミングサービスにおけるトラックミックス生成
- Authors: Walid Bendada and Th\'eo Bontempelli and Mathieu Morlon and Benjamin
Chapus and Thibault Cador and Thomas Bouab\c{c}a and Guillaume Salha-Galvan
- Abstract要約: 本稿では,2022年に音楽ストリーミングサービスDeezerでリリースされたパーソナライズされたプレイリスト生成システムであるTrack Mixを紹介する。
Track Mixは、初期の音楽曲にインスパイアされた「ミックス」プレイリストを自動的に生成し、ユーザーはお気に入りのコンテンツに似た音楽を発見することができる。
ユーザプレイリストから数百万のトラックシーケンスに基づいてトレーニングされたTransformerモデルを用いて、これらのミックスを生成する。
- 参考スコア(独自算出の注目度): 2.309018557701645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Track Mix, a personalized playlist generation system
released in 2022 on the music streaming service Deezer. Track Mix automatically
generates "mix" playlists inspired by initial music tracks, allowing users to
discover music similar to their favorite content. To generate these mixes, we
consider a Transformer model trained on millions of track sequences from user
playlists. In light of the growing popularity of Transformers in recent years,
we analyze the advantages, drawbacks, and technical challenges of using such a
model for mix generation on the service, compared to a more traditional
collaborative filtering approach. Since its release, Track Mix has been
generating playlists for millions of users daily, enhancing their music
discovery experience on Deezer.
- Abstract(参考訳): 本稿では,2022年に音楽ストリーミングサービスDeezerでリリースされたパーソナライズされたプレイリスト生成システムであるTrack Mixを紹介する。
Track Mixは、初期の音楽曲にインスパイアされた「ミックス」プレイリストを自動的に生成し、ユーザーはお気に入りのコンテンツに似た音楽を発見することができる。
これらのミックスを生成するために,ユーザプレイリストから数百万トラックシーケンスをトレーニングしたTransformerモデルを検討する。
近年、トランスフォーマーの人気が高まりつつあることを踏まえて、従来のコラボレーティブフィルタリングアプローチと比較して、このようなモデルを用いたサービスでのミックス生成の利点、欠点、技術的な課題を分析した。
Track Mixはリリース以来、毎日何百万ものユーザー向けにプレイリストを作成し、Deezerで音楽発見体験を強化してきた。
関連論文リスト
- MuVi: Video-to-Music Generation with Semantic Alignment and Rhythmic Synchronization [52.498942604622165]
本稿では,ビデオコンテンツに合わせた音楽を生成するためのフレームワークであるMuViについて述べる。
MuViは、特別に設計された視覚適応器を通じて映像コンテンツを分析し、文脈的および時間的に関係のある特徴を抽出する。
音声品質と時間同期の両方において, MuVi が優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T18:44:56Z) - Enhancing Sequential Music Recommendation with Personalized Popularity Awareness [56.972624411205224]
本稿では、パーソナライズされた人気情報をシーケンシャルなレコメンデーションに組み込む新しいアプローチを提案する。
実験結果から、パーソナライズされた最もポピュラーなレコメンデータは、既存の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-06T15:05:12Z) - LARP: Language Audio Relational Pre-training for Cold-Start Playlist Continuation [49.89372182441713]
マルチモーダルコールドスタートプレイリスト継続モデルであるLARPを導入する。
我々のフレームワークはタスク固有の抽象化の段階を増大させており、イントラトラック(音声)コントラスト損失、トラックトラックコントラスト損失、トラックプレイリストコントラスト損失である。
論文 参考訳(メタデータ) (2024-06-20T14:02:15Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Arrange, Inpaint, and Refine: Steerable Long-term Music Audio Generation and Editing via Content-based Controls [6.176747724853209]
LLM(Large Language Models)は、高品質な音楽を生成する上で有望であるが、自動回帰生成に焦点をあてることで、音楽編集タスクにおける有用性を制限している。
本稿では,パラメータ効率の高いヘテロジニアスアダプタとマスキングトレーニングスキームを組み合わせた新しいアプローチを提案する。
提案手法は, フレームレベルのコンテンツベース制御を統合し, トラックコンディショニングとスコアコンディショニングによる音楽アレンジメントを容易にする。
論文 参考訳(メタデータ) (2024-02-14T19:00:01Z) - "All of Me": Mining Users' Attributes from their Public Spotify
Playlists [18.77632404384041]
人々は自分の音楽の好みを表現するために自分のプレイリストを作成し、公開します。
これらのパブリックアクセス可能なプレイリストは、ユーザの属性とアイデンティティに関する豊富な洞察の源となっている。
人口統計,習慣,性格特性など,ユーザの個人属性に関連付けられた繰り返し音楽的特徴の同定に焦点をあてる。
論文 参考訳(メタデータ) (2024-01-25T16:38:06Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - LooPy: A Research-Friendly Mix Framework for Music Information Retrieval
on Electronic Dance Music [8.102989872457156]
自動EDM音声生成のためのPythonパッケージを,EMM楽曲のMIR基盤として提案する。
プロレベルのテンプレートを構築するためのフレームワークを提供しています。
実験により、我々のミックスは、世界的に有名なアーティストが制作したオリジナル・レファレンス・ソングと同じ品質を達成できることが示された。
論文 参考訳(メタデータ) (2023-05-01T19:30:47Z) - Automatic music mixing with deep learning and out-of-domain data [10.670987762781834]
伝統的に、音楽のミキシングは、クリーンで個々のトラックの形で楽器を録音し、オーディオ効果と専門家の知識を使ってそれらを最後のミキシングに混ぜる。
本稿では,モデルが自動音楽ミキシングを行うことのできる新しいデータ前処理手法を提案する。
また,音楽ミキシングシステム評価のためのリスニングテスト手法を再設計した。
論文 参考訳(メタデータ) (2022-08-24T10:50:22Z) - Automatic DJ Transitions with Differentiable Audio Effects and
Generative Adversarial Networks [30.480360404811197]
Disc Jockey (DJ) の中心的なタスクは、隣接するトラック間のシームレスな遷移を伴うミューシックのミックスセットを作成することである。
本稿では,実世界のDJミキシングから学習することで,生成的敵対ネットワークを用いて楽曲遷移を生成するデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2021-10-13T06:25:52Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。