論文の概要: Track Mix Generation on Music Streaming Services using Transformers
- arxiv url: http://arxiv.org/abs/2307.03045v1
- Date: Thu, 6 Jul 2023 15:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 13:34:21.822896
- Title: Track Mix Generation on Music Streaming Services using Transformers
- Title(参考訳): 変圧器を用いた音楽ストリーミングサービスにおけるトラックミックス生成
- Authors: Walid Bendada and Th\'eo Bontempelli and Mathieu Morlon and Benjamin
Chapus and Thibault Cador and Thomas Bouab\c{c}a and Guillaume Salha-Galvan
- Abstract要約: 本稿では,2022年に音楽ストリーミングサービスDeezerでリリースされたパーソナライズされたプレイリスト生成システムであるTrack Mixを紹介する。
Track Mixは、初期の音楽曲にインスパイアされた「ミックス」プレイリストを自動的に生成し、ユーザーはお気に入りのコンテンツに似た音楽を発見することができる。
ユーザプレイリストから数百万のトラックシーケンスに基づいてトレーニングされたTransformerモデルを用いて、これらのミックスを生成する。
- 参考スコア(独自算出の注目度): 2.309018557701645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Track Mix, a personalized playlist generation system
released in 2022 on the music streaming service Deezer. Track Mix automatically
generates "mix" playlists inspired by initial music tracks, allowing users to
discover music similar to their favorite content. To generate these mixes, we
consider a Transformer model trained on millions of track sequences from user
playlists. In light of the growing popularity of Transformers in recent years,
we analyze the advantages, drawbacks, and technical challenges of using such a
model for mix generation on the service, compared to a more traditional
collaborative filtering approach. Since its release, Track Mix has been
generating playlists for millions of users daily, enhancing their music
discovery experience on Deezer.
- Abstract(参考訳): 本稿では,2022年に音楽ストリーミングサービスDeezerでリリースされたパーソナライズされたプレイリスト生成システムであるTrack Mixを紹介する。
Track Mixは、初期の音楽曲にインスパイアされた「ミックス」プレイリストを自動的に生成し、ユーザーはお気に入りのコンテンツに似た音楽を発見することができる。
これらのミックスを生成するために,ユーザプレイリストから数百万トラックシーケンスをトレーニングしたTransformerモデルを検討する。
近年、トランスフォーマーの人気が高まりつつあることを踏まえて、従来のコラボレーティブフィルタリングアプローチと比較して、このようなモデルを用いたサービスでのミックス生成の利点、欠点、技術的な課題を分析した。
Track Mixはリリース以来、毎日何百万ものユーザー向けにプレイリストを作成し、Deezerで音楽発見体験を強化してきた。
関連論文リスト
- Arrange, Inpaint, and Refine: Steerable Long-term Music Audio Generation
and Editing via Content-based Controls [6.747653154871061]
コントロール可能な音楽生成は、人間-AI音楽の共同創造において重要な役割を担っている。
LLM(Large Language Models)は高品質な音楽を生成できることを示しており、自動回帰生成に重点を置いているため、音楽編集タスクにおける有用性を制限している。
そこで本稿では,自動回帰言語モデルによる楽曲の塗り替え作業へのシームレス対応を実現するための,新しい条件付きファインチューニング(PEFT)手法を提案する。
論文 参考訳(メタデータ) (2024-02-14T19:00:01Z) - "All of Me": Mining Users' Attributes from their Public Spotify
Playlists [18.77632404384041]
人々は自分の音楽の好みを表現するために自分のプレイリストを作成し、公開します。
これらのパブリックアクセス可能なプレイリストは、ユーザの属性とアイデンティティに関する豊富な洞察の源となっている。
人口統計,習慣,性格特性など,ユーザの個人属性に関連付けられた繰り返し音楽的特徴の同定に焦点をあてる。
論文 参考訳(メタデータ) (2024-01-25T16:38:06Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Benchmarks and leaderboards for sound demixing tasks [68.8204255655161]
音源分離タスクのための2つの新しいベンチマークを導入する。
これらのベンチマークでは、音のデミックスやアンサンブルなどの人気モデルを比較します。
また,特定の茎に最適な異なるモデルのアンサンブルに基づく,音声分離のための新しいアプローチも開発している。
論文 参考訳(メタデータ) (2023-05-12T14:00:26Z) - LooPy: A Research-Friendly Mix Framework for Music Information Retrieval
on Electronic Dance Music [8.102989872457156]
自動EDM音声生成のためのPythonパッケージを,EMM楽曲のMIR基盤として提案する。
プロレベルのテンプレートを構築するためのフレームワークを提供しています。
実験により、我々のミックスは、世界的に有名なアーティストが制作したオリジナル・レファレンス・ソングと同じ品質を達成できることが示された。
論文 参考訳(メタデータ) (2023-05-01T19:30:47Z) - Automatic music mixing with deep learning and out-of-domain data [10.670987762781834]
伝統的に、音楽のミキシングは、クリーンで個々のトラックの形で楽器を録音し、オーディオ効果と専門家の知識を使ってそれらを最後のミキシングに混ぜる。
本稿では,モデルが自動音楽ミキシングを行うことのできる新しいデータ前処理手法を提案する。
また,音楽ミキシングシステム評価のためのリスニングテスト手法を再設計した。
論文 参考訳(メタデータ) (2022-08-24T10:50:22Z) - Automatic DJ Transitions with Differentiable Audio Effects and
Generative Adversarial Networks [30.480360404811197]
Disc Jockey (DJ) の中心的なタスクは、隣接するトラック間のシームレスな遷移を伴うミューシックのミックスセットを作成することである。
本稿では,実世界のDJミキシングから学習することで,生成的敵対ネットワークを用いて楽曲遷移を生成するデータ駆動型アプローチについて検討する。
論文 参考訳(メタデータ) (2021-10-13T06:25:52Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z) - Foley Music: Learning to Generate Music from Videos [115.41099127291216]
Foley Musicは、楽器を演奏する人々に関するサイレントビデオクリップのために、可愛らしい音楽を合成できるシステムだ。
まず、ビデオから音楽生成に成功するための2つの重要な中間表現、すなわち、ビデオからのボディーキーポイントと、オーディオ録音からのMIDIイベントを識別する。
身体の動きに応じてMIDIイベントシーケンスを正確に予測できるグラフ$-$Transformerフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-21T17:59:06Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。