論文の概要: AI Song Contest: Human-AI Co-Creation in Songwriting
- arxiv url: http://arxiv.org/abs/2010.05388v1
- Date: Mon, 12 Oct 2020 01:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 08:09:28.909856
- Title: AI Song Contest: Human-AI Co-Creation in Songwriting
- Title(参考訳): AIソングコンテスト:人間とAIの合唱曲
- Authors: Cheng-Zhi Anna Huang, Hendrik Vincent Koops, Ed Newton-Rex, Monica
Dinculescu, Carrie J. Cai
- Abstract要約: 音楽/開発者チーム13チーム,合計61人のユーザが,AIで楽曲を共同制作する上で必要なものについて報告する。
これらの課題のいくつかを克服するために、AIの既存の特徴をどのように活用し、再利用したかを示します。
発見は、より分解可能で、操縦可能で、解釈可能で、適応的な、機械学習による音楽インターフェースを設計する必要があることを反映している。
- 参考スコア(独自算出の注目度): 8.399688944263843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is challenging the way we make music. Although research in
deep generative models has dramatically improved the capability and fluency of
music models, recent work has shown that it can be challenging for humans to
partner with this new class of algorithms. In this paper, we present findings
on what 13 musician/developer teams, a total of 61 users, needed when
co-creating a song with AI, the challenges they faced, and how they leveraged
and repurposed existing characteristics of AI to overcome some of these
challenges. Many teams adopted modular approaches, such as independently
running multiple smaller models that align with the musical building blocks of
a song, before re-combining their results. As ML models are not easily
steerable, teams also generated massive numbers of samples and curated them
post-hoc, or used a range of strategies to direct the generation, or
algorithmically ranked the samples. Ultimately, teams not only had to manage
the "flare and focus" aspects of the creative process, but also juggle them
with a parallel process of exploring and curating multiple ML models and
outputs. These findings reflect a need to design machine learning-powered music
interfaces that are more decomposable, steerable, interpretable, and adaptive,
which in return will enable artists to more effectively explore how AI can
extend their personal expression.
- Abstract(参考訳): 機械学習は音楽の作り方に挑戦している。
深層生成モデルの研究は、音楽モデルの能力と流布度を劇的に向上させたが、最近の研究は、人間がこの新しい種類のアルゴリズムと組むことが困難であることを示している。
本稿では、13のミュージシャン/開発者チーム、合計61人のユーザ、AIで曲を共同制作する上で必要なもの、直面した課題、そしてこれらの課題を克服するためにAIの既存の特徴をどのように活用し再利用したか、について述べる。
多くのチームがモジュラーなアプローチを採用し、曲の音楽的な構成要素に合わせて複数の小さなモデルを独立に実行し、結果を再結合するなどした。
MLモデルは簡単には操縦できないため、チームは大量のサンプルを生成してポストホックでキュレートしたり、生成を指示したり、アルゴリズムでサンプルをランク付けするためにさまざまな戦略を使った。
最終的にチームは、創造プロセスの"フレアとフォーカス"の側面を管理するだけでなく、複数のmlモデルとアウトプットを探索し、キュレーションする並列プロセスでそれらをジャグリングする必要があった。
これらの発見は、より分解性があり、操作性があり、解釈可能で、適応性がある、機械学習による音楽インターフェースを設計する必要性を反映している。
関連論文リスト
- Prevailing Research Areas for Music AI in the Era of Foundation Models [8.067636023395236]
過去数年間、生成的音楽AIアプリケーションが急増している。
音楽データセットの現状とその限界について論じる。
複数のモダリティへの拡張とアーティストのワークフローとの統合に向けて,これらの生成モデルの応用を強調した。
論文 参考訳(メタデータ) (2024-09-14T09:06:43Z) - SongCreator: Lyrics-based Universal Song Generation [53.248473603201916]
SongCreatorは、声楽と伴奏の両方で曲を生成するという課題に取り組むために設計された曲生成システムである。
モデルには2つの新しいデザインがある: ボーカルの情報と伴奏を収録するための巧妙に設計された二重系列言語モデル (M) と、DSLMのための一連の注意マスク戦略である。
実験では,8つのタスクすべてに対して,最先端ないし競争的なパフォーマンスを実現することにより,SongCreatorの有効性を示す。
論文 参考訳(メタデータ) (2024-09-09T19:37:07Z) - Reducing Barriers to the Use of Marginalised Music Genres in AI [7.140590440016289]
このプロジェクトの目的は、AIモデルで疎外された音楽のジャンルを使用する際の障壁を減らすことに関連する、eXplainable AI(XAI)の課題と機会を探ることである。
特定されたXAIの機会には、AIモデルの透明性とコントロールの改善、AIモデルの倫理とバイアスの説明、バイアスを減らすために小さなデータセットで大規模モデルの微調整、AIモデルによるスタイル移行の機会の説明などが含まれる。
私たちは現在、グローバルなInternational Responsible AI Musicコミュニティをまとめて、私たちのネットワークへの参加を招待するために、このプロジェクトを構築しています。
論文 参考訳(メタデータ) (2024-07-18T12:10:04Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Exploring Variational Auto-Encoder Architectures, Configurations, and
Datasets for Generative Music Explainable AI [7.391173255888337]
音楽と芸術のための生成AIモデルは、ますます複雑で理解しづらい。
生成AIモデルをより理解しやすいものにするためのアプローチの1つは、生成AIモデルに少数の意味的に意味のある属性を課すことである。
本稿では,変分自動エンコーダモデル(MeasureVAEとAdversarialVAE)の異なる組み合わせが音楽生成性能に与える影響について,系統的な検討を行った。
論文 参考訳(メタデータ) (2023-11-14T17:27:30Z) - An Autoethnographic Exploration of XAI in Algorithmic Composition [7.775986202112564]
本稿では,アイルランド音楽で学習した潜在次元の解釈可能な測度VeE生成音楽XAIモデルを用いた自己エスノグラフィー研究を紹介する。
音楽作成ワークフローの探索的性質は、生成モデル自体の特徴ではなく、トレーニングデータセットの音楽的特徴を前提としていることが示唆されている。
論文 参考訳(メタデータ) (2023-08-11T12:03:17Z) - Generating music with sentiment using Transformer-GANs [0.0]
本研究では,人間の感情から得られるデータによって条件付けられた記号音楽の生成モデルを提案する。
我々は,効率の良い線形バージョンの注意と識別器を用いることで,上記の問題に対処しようと試みている。
論文 参考訳(メタデータ) (2022-12-21T15:59:35Z) - WinoGAViL: Gamified Association Benchmark to Challenge
Vision-and-Language Models [91.92346150646007]
本研究では,視覚・言語関係を収集するオンラインゲームであるWinoGAViLを紹介する。
私たちはこのゲームを使って3.5Kのインスタンスを収集し、それらが人間には直感的だが最先端のAIモデルには挑戦的であることを発見した。
我々の分析とプレイヤーからのフィードバックは、収集された協会が多様な推論スキルを必要とすることを示している。
論文 参考訳(メタデータ) (2022-07-25T23:57:44Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。