論文の概要: "Melatonin": A Case Study on AI-induced Musical Style
- arxiv url: http://arxiv.org/abs/2208.08968v1
- Date: Thu, 18 Aug 2022 17:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:35:20.676542
- Title: "Melatonin": A Case Study on AI-induced Musical Style
- Title(参考訳): メルトニン:aiによる音楽スタイルに関する事例研究
- Authors: Emmanuel Deruty, Maarten Grachten
- Abstract要約: メラトニン(Melatonin)は、ベースラインを生成するAIツールであるBassNetを多用した楽曲である。
楽曲のスタイル特性をツールの空き度に関連付けて同定し,イディオムと音の両面からスタイルの表現を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although the use of AI tools in music composition and production is steadily
increasing, as witnessed by the newly founded AI song contest, analysis of
music produced using these tools is still relatively uncommon as a mean to gain
insight in the ways AI tools impact music production. In this paper we present
a case study of "Melatonin", a song produced by extensive use of BassNet, an AI
tool originally designed to generate bass lines. Through analysis of the
artists' work flow and song project, we identify style characteristics of the
song in relation to the affordances of the tool, highlighting manifestations of
style in terms of both idiom and sound.
- Abstract(参考訳): 音楽の作曲と制作におけるAIツールの利用は着実に増加しているが、新たに設立されたAIソングコンテストで見られるように、これらのツールを使用した音楽の分析は、AIツールが音楽制作に影響を与える方法についての洞察を得る手段として、いまだに一般的ではない。
本稿では,ベースラインを生成するためのAIツールであるBassNetを多用した楽曲である"Melatonin"のケーススタディを示す。
アーティストのワークフローと楽曲プロジェクトの分析を通じて,曲のスタイル特性とツールの余裕を識別し,イディオムと音の両方の観点からのスタイル表現を強調する。
関連論文リスト
- SongCreator: Lyrics-based Universal Song Generation [53.248473603201916]
SongCreatorは、声楽と伴奏の両方で曲を生成するという課題に取り組むために設計された曲生成システムである。
モデルには2つの新しいデザインがある: ボーカルの情報と伴奏を収録するための巧妙に設計された二重系列言語モデル (M) と、DSLMのための一連の注意マスク戦略である。
実験では,8つのタスクすべてに対して,最先端ないし競争的なパフォーマンスを実現することにより,SongCreatorの有効性を示す。
論文 参考訳(メタデータ) (2024-09-09T19:37:07Z) - Play Me Something Icy: Practical Challenges, Explainability and the Semantic Gap in Generative AI Music [0.0]
この写真は、説明可能なAIの文脈において、テキスト音声およびテキスト音声生成ツールの性質を批判的に考察することを目的としている。
論文 参考訳(メタデータ) (2024-08-13T22:42:05Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Automatic Time Signature Determination for New Scores Using Lyrics for
Latent Rhythmic Structure [0.0]
本稿では,歌詞のみを入力として使用する新しいアプローチを提案する。
本稿では, 実験結果から, 受信器動作特性(ROC)の97.6%のF1スコアと0.996のAUC(Area Under the Curve)スコアが得られた。
論文 参考訳(メタデータ) (2023-11-27T01:44:02Z) - Performance Conditioning for Diffusion-Based Multi-Instrument Music
Synthesis [15.670399197114012]
本稿では,特定の性能と記録環境に生成モデルを条件付け,多施設合成の制御を強化することを提案する。
パフォーマンスコンディショニング(Performance Conditioning)とは、特定の演奏から採った特定の楽器のスタイルと音色で音楽を合成する生成モデルを示すツールである。
試作機は,多種多様な楽器と最先端のFADリアリズムスコアを用いた未計算性能を用いて評価した。
論文 参考訳(メタデータ) (2023-09-21T17:44:57Z) - A Survey of AI Music Generation Tools and Models [0.9421843976231371]
音楽生成手法をパラメータベース,テキストベース,視覚ベースの3つのカテゴリに分類した。
調査では,これらのツールの多様な可能性と機能について紹介した。
我々の調査は、AI音楽生成の基盤となるメカニズムと課題に関する重要な洞察を提供する。
論文 参考訳(メタデータ) (2023-08-24T00:49:08Z) - ProgGP: From GuitarPro Tablature Neural Generation To Progressive Metal
Production [0.0]
この作業は、173のプログレッシブメタル曲のカスタムデータセットであるProgGP上で、事前訓練されたトランスフォーマーモデルを微調整することで拡張する。
私たちのモデルは、複数のギター、ベースギター、ドラム、ピアノ、オーケストラのパーツを生成することができます。
そこで本研究では,プログレッシブ・メタル・ソングを制作するためのツールとして,人間のメタル・プロデューサによって完全生産・混合されたツールとして,モデルの価値を実証する。
論文 参考訳(メタデータ) (2023-07-11T15:19:47Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z) - Artificial Musical Intelligence: A Survey [51.477064918121336]
音楽は、機械学習と人工知能研究の領域としてますます広まりつつある。
この記事では、音楽知能の定義を提供し、その構成成分の分類を導入し、その追求に耐えうる幅広いAI手法を調査します。
論文 参考訳(メタデータ) (2020-06-17T04:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。