論文の概要: Contrastive Audio-Language Learning for Music
- arxiv url: http://arxiv.org/abs/2208.12208v1
- Date: Thu, 25 Aug 2022 16:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:12:44.185140
- Title: Contrastive Audio-Language Learning for Music
- Title(参考訳): 音楽のコントラスト型音声言語学習
- Authors: Ilaria Manco, Emmanouil Benetos, Elio Quinton, Gy\"orgy Fazekas
- Abstract要約: MusCALLは音楽コントラスト学習のためのフレームワークである。
本手法は,音楽音声と記述文のペアのアライメントを学習するデュアルエンコーダアーキテクチャで構成されている。
- 参考スコア(独自算出の注目度): 13.699088044513562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As one of the most intuitive interfaces known to humans, natural language has
the potential to mediate many tasks that involve human-computer interaction,
especially in application-focused fields like Music Information Retrieval. In
this work, we explore cross-modal learning in an attempt to bridge audio and
language in the music domain. To this end, we propose MusCALL, a framework for
Music Contrastive Audio-Language Learning. Our approach consists of a
dual-encoder architecture that learns the alignment between pairs of music
audio and descriptive sentences, producing multimodal embeddings that can be
used for text-to-audio and audio-to-text retrieval out-of-the-box. Thanks to
this property, MusCALL can be transferred to virtually any task that can be
cast as text-based retrieval. Our experiments show that our method performs
significantly better than the baselines at retrieving audio that matches a
textual description and, conversely, text that matches an audio query. We also
demonstrate that the multimodal alignment capability of our model can be
successfully extended to the zero-shot transfer scenario for genre
classification and auto-tagging on two public datasets.
- Abstract(参考訳): 人間にとって最も直感的なインターフェイスの1つとして、自然言語は、特に音楽情報検索のようなアプリケーション中心の分野において、人間とコンピュータの相互作用に関わる多くのタスクを仲介する可能性がある。
本研究では,音楽分野における音声と言語を橋渡しするクロスモーダル学習について検討する。
そこで我々は,音楽コントラスト学習のためのフレームワークMusCALLを提案する。
私たちのアプローチは、音楽オーディオと記述文のペアのアライメントを学習するデュアルエンコーダアーキテクチャから成り、テキストから音声への検索や音声からテキストへの検索に使用できるマルチモーダル埋め込みを生成する。
このプロパティのおかげで、MusCALLはテキストベースの検索としてキャストできる任意のタスクに転送できる。
提案手法は,テキスト記述にマッチする音声検索や,逆に音声クエリにマッチするテキスト検索において,ベースラインよりもはるかに優れた性能を示す。
また,本モデルのマルチモーダルアライメント能力は,ジャンル分類と2つの公開データセットの自動タグ付けにおいて,ゼロショット転送シナリオにまで拡張可能であることを示す。
関連論文リスト
- MuChoMusic: Evaluating Music Understanding in Multimodal Audio-Language Models [11.834712543531756]
MuChoMusicは、オーディオに焦点を当てたマルチモーダル言語モデルにおける音楽理解を評価するためのベンチマークである。
これには1,187の質問が含まれており、いずれも人間のアノテータによって検証され、2つのパブリックな音楽データセットからソースされた644曲の楽曲が収録されている。
我々は5つのオープンソースモデルを評価し、言語モダリティの過度な信頼性を含むいくつかの落とし穴を識別する。
論文 参考訳(メタデータ) (2024-08-02T15:34:05Z) - Qwen-Audio: Advancing Universal Audio Understanding via Unified
Large-Scale Audio-Language Models [98.34889301515412]
我々はQwen-Audioモデルを開発し、30以上のタスクと様々なオーディオタイプをカバーするために、事前学習を拡大することで制限に対処する。
Qwen-Audioは、タスク固有の微調整を必要とせずに、様々なベンチマークタスクで素晴らしいパフォーマンスを実現している。
さらにQwen-Audio-Chatを開発し、様々なオーディオやテキスト入力からの入力を可能にし、マルチターン対話を可能にし、様々なオーディオ中心のシナリオをサポートする。
論文 参考訳(メタデータ) (2023-11-14T05:34:50Z) - AudioPaLM: A Large Language Model That Can Speak and Listen [79.44757696533709]
本稿では,音声理解・生成のための大規模言語モデルであるAudioPaLMを紹介する。
AudioPaLMはテキストベースの言語モデルと音声ベースの言語モデルを融合する。
音声認識や音声音声翻訳などの応用により、テキストと音声を処理および生成することができる。
論文 参考訳(メタデータ) (2023-06-22T14:37:54Z) - Exploring the Role of Audio in Video Captioning [59.679122191706426]
本稿では,キャプションの音響モダリティの可能性をフル活用することを目的とした音声視覚フレームワークを提案する。
本稿では,音声とビデオ間の情報交換を改善するため,新たなローカル・グローバル融合機構を提案する。
論文 参考訳(メタデータ) (2023-06-21T20:54:52Z) - Language-Guided Music Recommendation for Video via Prompt Analogies [35.48998901411509]
本稿では,ユーザが自由形式の自然言語で楽曲選択をガイドできるようにし,入力ビデオに楽曲を推薦する方法を提案する。
既存の音楽ビデオデータセットは、必要な(ビデオ、音楽)トレーニングペアを提供するが、音楽のテキスト記述は欠落している。
論文 参考訳(メタデータ) (2023-06-15T17:58:01Z) - AudioGPT: Understanding and Generating Speech, Music, Sound, and Talking
Head [82.69233563811487]
大規模言語モデル(LLM)は、さまざまな領域やタスクにまたがって顕著な能力を示し、学習と認知の理解に挑戦しています。
本稿では,LLMを基本モデルで補完し,複雑な音声情報を処理するマルチモーダルAIシステムであるAudioGPTを提案する。
論文 参考訳(メタデータ) (2023-04-25T17:05:38Z) - Language-Guided Audio-Visual Source Separation via Trimodal Consistency [64.0580750128049]
この課題の鍵となる課題は、発音対象の言語的記述と、その視覚的特徴と、音声波形の対応する成分とを関連付けることである。
2つの新たな損失関数を通して擬似目標管理を行うために、既成の視覚言語基盤モデルを適用する。
3つの音声・視覚的分離データセットに対する自己教師型アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-03-28T22:45:40Z) - MuLan: A Joint Embedding of Music Audio and Natural Language [15.753767984842014]
本稿では,音声アノテーションを自然言語記述に直接リンクする新世代のモデルを提案する。
MuLanは、4400万曲の録音で訓練された、2towerのジョイントオーディオテキスト埋め込みモデルの形をしている。
論文 参考訳(メタデータ) (2022-08-26T03:13:21Z) - Learning music audio representations via weak language supervision [14.335950077921435]
我々は,一連のプロキシタスクによって最適化された音楽と言語事前学習(MuLaP)のためのマルチモーダルアーキテクチャを設計する。
弱い監督は、トラックの全体的な音楽内容を伝える、騒々しい自然言語記述の形で提供される。
提案手法の有効性を,同一のオーディオバックボーンが生成する音声表現の性能と,異なる学習戦略とを比較して示す。
論文 参考訳(メタデータ) (2021-12-08T10:30:52Z) - MusCaps: Generating Captions for Music Audio [14.335950077921435]
時間的注目のエンコーダデコーダで構成された最初の音楽オーディオキャプションモデルであるMusCapsを紹介します。
本手法は畳み込み型ニューラルネットワークアーキテクチャと繰り返し型ニューラルネットワークアーキテクチャを組み合わせて,音声テキスト入力を共同処理する。
我々のモデルは、分類に基づく音楽記述から脱却し、聴覚と言語の両方の理解を必要とするタスクを組み合わせている。
論文 参考訳(メタデータ) (2021-04-24T16:34:47Z) - Unsupervised Cross-Modal Audio Representation Learning from Unstructured
Multilingual Text [69.55642178336953]
教師なし音声表現学習へのアプローチを提案する。
3重項ニューラルネットワークアーキテクチャに基づいて、意味論的に関連付けられたクロスモーダル情報を用いて、音声トラック関連性を推定する。
我々のアプローチは、様々なアノテーションスタイルと、このコレクションの異なる言語に不変であることを示す。
論文 参考訳(メタデータ) (2020-03-27T07:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。