論文の概要: Adaptive music: Automated music composition and distribution
- arxiv url: http://arxiv.org/abs/2008.04415v2
- Date: Tue, 25 Jan 2022 11:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 01:09:41.099296
- Title: Adaptive music: Automated music composition and distribution
- Title(参考訳): アダプティブ・ミュージック:自動作曲と配信
- Authors: David Daniel Albarrac\'in Molina
- Abstract要約: 進化探索に基づくアルゴリズム合成法であるメロミクスを提案する。
このシステムは、様々な種類の音楽を作るために、高い創造力と汎用性を示してきた。
これはまた、全く新しい応用のセットの出現を可能にした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Creativity, or the ability to produce new useful ideas, is commonly
associated to the human being; but there are many other examples in nature
where this phenomenon can be observed. Inspired by this fact, in engineering
and particularly in computational sciences, many different models have been
developed to tackle a number of problems.
Composing music, a form of art broadly present along the human history, is
the main topic addressed in this thesis. Taking advantage of the kind of ideas
that bring diversity and creativity to nature and computation, we present
Melomics: an algorithmic composition method based on evolutionary search. The
solutions have a genetic encoding based on formal grammars and these are
interpreted in a complex developmental process followed by a fitness
assessment, to produce valid music compositions in standard formats.
The system has exhibited a high creative power and versatility to produce
music of different types and it has been tested, proving on many occasions the
outcome to be indistinguishable from the music made by human composers. The
system has also enabled the emergence of a set of completely novel
applications: from effective tools to help anyone to easily obtain the precise
music that they need, to radically new uses, such as adaptive music for
therapy, exercise, amusement and many others. It seems clear that automated
composition is an active research area and that countless new uses will be
discovered.
- Abstract(参考訳): 創造性、あるいは新しい有用なアイデアを生み出す能力は、一般に人間と結びついているが、この現象を観察できる自然界には他にも多くの例がある。
この事実、工学、特に計算科学に触発され、多くの問題に取り組むために様々なモデルが開発されてきた。
人類の歴史に広く見られる芸術の形式である作曲は、この論文で取り扱われる主要なテーマである。
自然と計算に多様性と創造性をもたらす考え方を生かして,進化的探索に基づくアルゴリズム構成法であるメロミックを提案する。
これらの解は形式文法に基づく遺伝的符号化を持ち、それらは複雑な発達過程で解釈され、適合度評価によって標準形式で有効な楽曲を生成する。
このシステムは様々な種類の音楽を作るための高い創造力と万能性を示しており、その結果が人間の作曲者による音楽と区別できないことが証明されている。
このシステムはまた、必要な正確な音楽を簡単に入手するための効果的なツールから、治療、運動、娯楽など、急進的な新しい用途へと、全く新しい応用のセットを創出した。
自動合成は活発な研究領域であり、無数の新しい用途が見つかることは明らかである。
関連論文リスト
- Generating Mixcode Popular Songs with Artificial Intelligence: Concepts, Plans, and Speculations [0.0]
本稿では,人工知能とポピュラー音楽を統合するプロジェクトについて論じる。
プロジェクトの最終的な目標は、ソーシャルトランスフォーメーション、教育、ヘルスケア、感情的な幸福のために音楽を実装する強力なツールを作ることだ。
論文 参考訳(メタデータ) (2024-11-10T10:49:13Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - ComposerX: Multi-Agent Symbolic Music Composition with LLMs [51.68908082829048]
音楽の構成は、長い依存と調和の制約で情報を理解し、生成する能力を必要とする複雑なタスクである。
現在のLLMは、このタスクで簡単に失敗し、In-Context-LearningやChain-of-Thoughtsといったモダンな技術が組み込まれても、不適切な曲を生成する。
エージェントベースのシンボリック音楽生成フレームワークであるComposerXを提案する。
論文 参考訳(メタデータ) (2024-04-28T06:17:42Z) - Models of Music Cognition and Composition [0.0]
まず、音楽が認知科学者に関係している理由を動機付け、音楽認知の計算モデリングへのアプローチの概要を述べる。
次に,非コンピュータモデル,非認知モデル,計算認知モデルなど,音楽知覚の様々なモデルに関する文献をレビューする。
論文 参考訳(メタデータ) (2022-08-14T16:27:59Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Music Composition with Deep Learning: A Review [1.7188280334580197]
創造性のある音楽を生成するための,現在のディープラーニングモデルの能力について分析する。
理論的観点からこれらのモデルと作曲過程を比較した。
論文 参考訳(メタデータ) (2021-08-27T13:53:53Z) - Personalized Popular Music Generation Using Imitation and Structure [1.971709238332434]
そこで本研究では,特定の例のシード曲から構造,メロディ,和音,バススタイルを捉え,模倣できる統計的機械学習モデルを提案する。
10曲のポップソングによる評価は,我々の新しい表現と手法が高品質なスタイリスティック音楽を作り出すことができることを示している。
論文 参考訳(メタデータ) (2021-05-10T23:43:00Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Artificial Musical Intelligence: A Survey [51.477064918121336]
音楽は、機械学習と人工知能研究の領域としてますます広まりつつある。
この記事では、音楽知能の定義を提供し、その構成成分の分類を導入し、その追求に耐えうる幅広いAI手法を調査します。
論文 参考訳(メタデータ) (2020-06-17T04:46:32Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。