論文の概要: Malakai: Music That Adapts to the Shape of Emotions
- arxiv url: http://arxiv.org/abs/2112.02070v1
- Date: Fri, 3 Dec 2021 18:34:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 16:23:14.804130
- Title: Malakai: Music That Adapts to the Shape of Emotions
- Title(参考訳): マラカイ:感情の形に適応した音楽
- Authors: Zack Harris, Liam Atticus Clarke, Pietro Gagliano, Dante Camarena,
Manal Siddiqui, Pablo S. Castro
- Abstract要約: Malakaiは、ユーザがこのようなダイナミックな曲を作り、聴き、リミックスし、共有するのを助けるツールだ。
Malakaiを使えば、リスナーが対話できるダイナミックな曲を作成できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of ML music models such as Google Magenta's MusicVAE now allow us
to extract and replicate compositional features from otherwise complex
datasets. These models allow computational composers to parameterize abstract
variables such as style and mood. By leveraging these models and combining them
with procedural algorithms from the last few decades, it is possible to create
a dynamic song that composes music in real-time to accompany interactive
experiences. Malakai is a tool that helps users of varying skill levels create,
listen to, remix and share such dynamic songs. Using Malakai, a Composer can
create a dynamic song that can be interacted with by a Listener
- Abstract(参考訳): Google MagentaのMusicVAEのようなMLミュージックモデルの出現により、他の複雑なデータセットから合成機能の抽出と複製が可能になりました。
これらのモデルにより、計算作曲家はスタイルやムードなどの抽象変数をパラメータ化できる。
これらのモデルを利用して過去数十年の手続きアルゴリズムと組み合わせることで、インタラクティブな体験に合わせて音楽をリアルタイムで作曲するダイナミックな曲を作ることができる。
Malakaiは、さまざまなスキルレベルを持つユーザが、このようなダイナミックな曲を作り、聴き、リミックスし、共有するのを助けるツールだ。
malakaiを使って、作曲家はリスナーが対話できるダイナミックな曲を作ることができる
関連論文リスト
- SongComposer: A Large Language Model for Lyric and Melody Composition in
Song Generation [88.33522730306674]
SongComposerは、シンボリックな歌の表現でメロディーや歌詞を理解し、生成することができた。
我々は、人間が音楽のためにデザインした成熟した効率的な方法である象徴的な歌の表現に頼っている。
広範な実験により、SongComposerは、歌詞からメロディ生成、メロディから歌詞への生成、歌の継続、テキストから歌への生成において優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-02-27T16:15:28Z) - ByteComposer: a Human-like Melody Composition Method based on Language
Model Agent [11.792129708566598]
大規模言語モデル(LLM)は、マルチモーダル理解と生成タスクの進歩を奨励している。
我々は,人間の創造的パイプラインを4つのステップでエミュレートするエージェントフレームワークByteComposerを提案する。
我々は、GPT4およびオープンソースの大規模言語モデルに関する広範な実験を行い、フレームワークの有効性を実証した。
論文 参考訳(メタデータ) (2024-02-24T04:35:07Z) - Arrange, Inpaint, and Refine: Steerable Long-term Music Audio Generation
and Editing via Content-based Controls [6.747653154871061]
コントロール可能な音楽生成は、人間-AI音楽の共同創造において重要な役割を担っている。
LLM(Large Language Models)は高品質な音楽を生成できることを示しており、自動回帰生成に重点を置いているため、音楽編集タスクにおける有用性を制限している。
そこで本稿では,自動回帰言語モデルによる楽曲の塗り替え作業へのシームレス対応を実現するための,新しい条件付きファインチューニング(PEFT)手法を提案する。
論文 参考訳(メタデータ) (2024-02-14T19:00:01Z) - Video2Music: Suitable Music Generation from Videos using an Affective
Multimodal Transformer model [32.801213106782335]
我々は、提供されたビデオにマッチできる生成型音楽AIフレームワーク、Video2Musicを開発した。
そこで本研究では,映像コンテンツにマッチする楽曲を感情的に生成する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T03:33:00Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - ComMU: Dataset for Combinatorial Music Generation [20.762884001498627]
Combinatorの音楽生成は、音楽の短いサンプルと豊かな音楽メタデータを生成し、それらを組み合わせて完全な音楽を生成する。
ComMUは、短い音楽サンプルとそれに対応する12の音楽メタデータからなる最初のシンボリック音楽データセットである。
以上の結果から,トラックロールやコード品質などのユニークなメタデータが自動合成の能力を向上させることが示唆された。
論文 参考訳(メタデータ) (2022-11-17T07:25:09Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z) - Exploring Inherent Properties of the Monophonic Melody of Songs [10.055143995729415]
本稿では,音韻メロディの解釈可能な特徴の集合を計算目的で提案する。
これらの特徴は数学的形式だけでなく、作曲家の直観にも考慮されている。
これらの特徴は、合唱的な作曲の実践であっても、多くのジャンルの歌において普遍的に人々によって考慮されている。
論文 参考訳(メタデータ) (2020-03-20T14:13:16Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。