論文の概要: The pop song generator: designing an online course to teach
collaborative, creative AI
- arxiv url: http://arxiv.org/abs/2306.10069v1
- Date: Thu, 15 Jun 2023 18:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 01:17:25.828747
- Title: The pop song generator: designing an online course to teach
collaborative, creative AI
- Title(参考訳): pop song generator: コラボレーションで創造的なaiを教えるオンラインコースをデザイン
- Authors: Matthew Yee-king and Andrea Fiorucci and Mark d'Inverno
- Abstract要約: この記事では、新しいオンラインAI創造コースについて記述し、評価する。
このコースは、3つの最先端AIモデルに基づいており、ポップソング生成システムに組み込まれている。
微調整されたGPT-2モデルは歌詞を書き、Music-VAEは楽譜と楽器を作成し、Diffsingerは歌声を合成する。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This article describes and evaluates a new online AI-creativity course. The
course is based around three near-state-of-the-art AI models combined into a
pop song generating system. A fine-tuned GPT-2 model writes lyrics, Music-VAE
composes musical scores and instrumentation and Diffsinger synthesises a
singing voice. We explain the decisions made in designing the course which is
based on Piagetian, constructivist 'learning-by-doing'. We present details of
the five-week course design with learning objectives, technical concepts, and
creative and technical activities. We explain how we overcame technical
challenges to build a complete pop song generator system, consisting of Python
scripts, pre-trained models, and Javascript code that runs in a dockerised
Linux container via a web-based IDE. A quantitative analysis of student
activity provides evidence on engagement and a benchmark for future
improvements. A qualitative analysis of a workshop with experts validated the
overall course design, it suggested the need for a stronger creative brief and
ethical and legal content.
- Abstract(参考訳): この記事では、新しいオンラインAI創造コースを説明し、評価する。
このコースは、3つの最先端AIモデルに基づいており、ポップソング生成システムに組み込まれている。
微調整されたGPT-2モデルは歌詞を書き、Music-VAEは楽譜と楽器を作成し、Diffsingerは歌声を合成する。
本稿では,Piagetian, constructivist 'learning-by-doing'に基づくコースの設計における意思決定について説明する。
本稿では,学習目標,技術概念,創造的・技術的活動を含む5週間のコースデザインの詳細を紹介する。
我々は、pythonスクリプト、事前学習されたモデル、およびwebベースのideを介してdocker化されたlinuxコンテナで実行されるjavascriptコードからなる完全なpop songジェネレータシステムを構築する技術的課題を克服する方法を説明します。
学生活動の定量的分析は、エンゲージメントの証拠と将来の改善のためのベンチマークを提供する。
コース全体の設計を検証する専門家によるワークショップの質的分析は、より創造的で倫理的で法的な内容の必要性を示唆した。
関連論文リスト
- SongCreator: Lyrics-based Universal Song Generation [53.248473603201916]
SongCreatorは、声楽と伴奏の両方で曲を生成するという課題に取り組むために設計された曲生成システムである。
モデルには2つの新しいデザインがある: ボーカルの情報と伴奏を収録するための巧妙に設計された二重系列言語モデル (M) と、DSLMのための一連の注意マスク戦略である。
実験では,8つのタスクすべてに対して,最先端ないし競争的なパフォーマンスを実現することにより,SongCreatorの有効性を示す。
論文 参考訳(メタデータ) (2024-09-09T19:37:07Z) - Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - PortfolioMentor: Multimodal Generative AI Companion for Learning and
Crafting Interactive Digital Art Portfolios [1.8130068086063336]
デジタルアートのポートフォリオは、アーティストが自分のビジョンを伝え、視覚、オーディオ、対話、物語を織り上げるためのインパクトのある媒体として機能する。
技術的な背景がないと、デザインの学生は創造的なアイデアを具体的なコードやデザインに変換するのが難しいと感じることが多い。
このツールは、積極的に提案し、学習、インスピレーション、サポートのための責任あるQ&Aを通じて、学生とガイドし、協力する。
細部において、このシステムはタスクとアーティストのビジョンの理解から始まり、視覚的なイラスト、オーディオまたは音楽の提案とファイル、対話のためのクリック・スクロール効果、創造的な視覚概念の共創に続く。
論文 参考訳(メタデータ) (2023-11-23T16:36:40Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Introducing Variational Autoencoders to High School Students [12.341543369402217]
本報告では,22名の学生を対象に,授業設計について解説し,パイロット研究の知見を共有している。
我々はWebベースのゲームを開発し、哲学的な比喩であるPlatoの洞窟を使って、VAEの仕組みを紹介した。
我々のアプローチは、学生に新しいAI概念を教えるのに効果的であることがわかった。
論文 参考訳(メタデータ) (2021-11-13T04:34:15Z) - A Quantum Natural Language Processing Approach to Musical Intelligence [0.0]
量子コンピューティング(quantum computing, 量子コンピューティング)は、新しい技術であり、今後音楽業界に影響を与えるだろう。
この研究は、以前の量子ハードウェア上でのDisCoCat言語モデルの実験的実装に続くものである。
我々は、量子コンピュータをプログラムして音楽の分類を学ぶことができることを示す最初の概念実証であるQuanthovenを紹介した。
論文 参考訳(メタデータ) (2021-11-10T12:35:07Z) - Music Composition with Deep Learning: A Review [1.7188280334580197]
創造性のある音楽を生成するための,現在のディープラーニングモデルの能力について分析する。
理論的観点からこれらのモデルと作曲過程を比較した。
論文 参考訳(メタデータ) (2021-08-27T13:53:53Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Can GAN originate new electronic dance music genres? -- Generating novel
rhythm patterns using GAN with Genre Ambiguity Loss [0.0]
本稿では,音楽生成,特に電子舞踊音楽のリズムパターンに着目し,深層学習を用いて新しいリズムを生成できるかを論じる。
我々は、GAN(Generative Adversarial Networks)のフレームワークを拡張し、データセット固有の分布から分岐することを奨励する。
提案したGANは、音楽リズムのように聞こえるリズムパターンを生成できるが、トレーニングデータセットのどのジャンルにも属さないことを示す。
論文 参考訳(メタデータ) (2020-11-25T23:22:12Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。