論文の概要: Content-based Music Similarity with Triplet Networks
- arxiv url: http://arxiv.org/abs/2008.04938v1
- Date: Tue, 11 Aug 2020 18:10:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 12:39:22.880432
- Title: Content-based Music Similarity with Triplet Networks
- Title(参考訳): トリプルトネットワークによるコンテンツベース音楽の類似性
- Authors: Joseph Cleveland, Derek Cheng, Michael Zhou, Thorsten Joachims,
Douglass Turnbull
- Abstract要約: 本稿では,コンテンツに基づく音楽の類似性に基づいた3重項ニューラルネットワークによる楽曲の埋め込みの実現可能性について検討する。
我々のネットワークは、同じアーティストの2曲が別のアーティストの3曲よりも互いに近くに埋め込まれるように、三重奏曲を用いて訓練されている。
- 参考スコア(独自算出の注目度): 21.220806977978853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the feasibility of using triplet neural networks to embed songs
based on content-based music similarity. Our network is trained using triplets
of songs such that two songs by the same artist are embedded closer to one
another than to a third song by a different artist. We compare two models that
are trained using different ways of picking this third song: at random vs.
based on shared genre labels. Our experiments are conducted using songs from
the Free Music Archive and use standard audio features. The initial results
show that shallow Siamese networks can be used to embed music for a simple
artist retrieval task.
- Abstract(参考訳): 本稿では,三重項ニューラルネットワークによる楽曲埋め込みの実現可能性について検討する。
我々のネットワークは、同じアーティストの2曲が別のアーティストの3曲よりも互いに近くに埋め込まれるように、三重奏曲を用いて訓練されている。
我々は、この第3の曲を選ぶ異なる方法を用いて訓練された2つのモデルを比較した。
実験はフリーミュージックアーカイブの楽曲を用いて実施し,標準オーディオ機能を用いて実施する。
最初の結果は、浅いシームズネットワークが簡単なアーティスト検索のために音楽を埋め込むことができることを示している。
関連論文リスト
- MusicFlow: Cascaded Flow Matching for Text Guided Music Generation [53.63948108922333]
MusicFlowは、フローマッチングに基づくケースドテキストから音楽への生成モデルである。
学習目的としてマスク予測を活用することで,音楽の充実や継続といった他のタスクにモデルを一般化することができる。
論文 参考訳(メタデータ) (2024-10-27T15:35:41Z) - Link Me Baby One More Time: Social Music Discovery on Spotify [0.3495246564946556]
Spotifyのデータを使って、あるユーザから別のユーザへのリンクが、共有アーティストの音楽に関わる受信機にどのように送信されるかを調べる。
本稿では,このプロセスに影響を及ぼす可能性のある要因として,送受信者関係の強さ,Spotifyソーシャルネットワークにおけるユーザの役割,音楽ソーシャル・コヒージョン,新しいアーティストがレシーバーの好みにいかに似ているか,などについて考察する。
論文 参考訳(メタデータ) (2024-01-16T20:41:11Z) - Fairness Through Domain Awareness: Mitigating Popularity Bias For Music
Discovery [56.77435520571752]
音楽発見と人気バイアスの本質的な関係について検討する。
本稿では,グラフニューラルネットワーク(GNN)に基づくレコメンデータシステムにおいて,人気バイアスに対処する,ドメイン対応の個別フェアネスに基づくアプローチを提案する。
我々のアプローチでは、個々の公正さを用いて、真実を聴く経験、すなわち2つの歌が似ているとすると、この類似性は彼らの表現に反映されるべきである。
論文 参考訳(メタデータ) (2023-08-28T14:12:25Z) - From West to East: Who can understand the music of the others better? [91.78564268397139]
我々は、異なる音楽文化間の類似性についての洞察を導き出すために、伝達学習手法を活用する。
西洋音楽の2つのデータセット、地中海東部の文化に由来する伝統的・民族的な2つのデータセット、インドの芸術音楽に属する2つのデータセットを使用します。
CNNベースの2つのアーキテクチャとTransformerベースのアーキテクチャを含む3つのディープオーディオ埋め込みモデルがトレーニングされ、ドメイン間で転送される。
論文 参考訳(メタデータ) (2023-07-19T07:29:14Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Musical Audio Similarity with Self-supervised Convolutional Neural
Networks [0.0]
われわれは、ビデオプロデューサーが聴ける音楽の抜粋を検索できる音楽類似検索エンジンを開発した。
本システムは,自己教師型畳み込みニューラルネットワークを訓練することにより,大規模音楽カタログにおける類似のトラックセグメントを提案する。
論文 参考訳(メタデータ) (2022-02-04T12:51:16Z) - Artist Similarity with Graph Neural Networks [1.160208922584163]
本稿では,三重項損失を学習したグラフニューラルネットワークを用いて,アーティスト間の類似性を計算するためのハイブリッドアプローチを提案する。
グラフニューラルネットワークアーキテクチャの新規性は、アーティスト接続のグラフのトポロジとコンテンツ機能を組み合わせて、アーティストを類似性を符号化したベクトル空間に埋め込むことである。
17,673人のアーティストを擁するこのデータセットは、これまでで最大の学術的アーティスト類似性データセットであり、コンテンツベースの機能を含んでいる。
論文 参考訳(メタデータ) (2021-07-30T10:44:31Z) - Disentangled Multidimensional Metric Learning for Music Similarity [36.74680586571013]
音楽類似性検索は、同じ「フィール」で1つの録音を別の録音に置き換えるのに有用である
音楽の類似性は定義が難しく、類似性の複数の同時概念に依存している。
我々は多次元類似性の概念を導入し、グローバルおよび特殊類似性メトリクスを単一のメートル法に統一する。
論文 参考訳(メタデータ) (2020-08-09T13:04:25Z) - Learning to rank music tracks using triplet loss [6.43271391521664]
楽曲を明示的にタグ付けすることなく、音声コンテンツに基づいて直接レコメンデーションを行う手法を提案する。
畳み込みニューラルネットワークを訓練し、三重項損失による類似性を学習する。
結果は、特に自動プール層に関連付けられた場合、システムの効率性を強調します。
論文 参考訳(メタデータ) (2020-05-18T08:20:54Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。