論文の概要: Musical creativity enabled by nonlinear oscillations of a bubble in
water
- arxiv url: http://arxiv.org/abs/2304.00822v1
- Date: Mon, 3 Apr 2023 09:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 16:08:15.020543
- Title: Musical creativity enabled by nonlinear oscillations of a bubble in
water
- Title(参考訳): 水中気泡の非線形振動による音楽の創造性
- Authors: Ivan S. Maksymov
- Abstract要約: 水中の1つの泡は、創造的な音楽的な結果を生み出すのに有効であることを示す。
バブルの応答の音声信号は、オリジナルの作曲のエレキギターバージョンに似ている。
我々は,このバブルの性質を物理に着想を得たAIシステム構築に利用することができる,という理論的支持論を提唱し,提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Producing original and arranging existing musical outcomes is an art that
takes years of learning and practice to master. Yet, despite the constant
advances in the field of AI-powered musical creativity, production of quality
musical outcomes remains a prerogative of the humans. Here we demonstrate that
a single bubble in water can be used to produce creative musical outcomes, when
it nonlinearly oscillates under an acoustic pressure signal that encodes a
piece of classical music. The audio signal of the response of the bubble
resembles an electric guitar version of the original composition. We suggest,
and provide plausible theoretical supporting arguments, that this property of
the bubble can be used to create physics-inspired AI systems capable of
simulating human creativity in arrangement and composition of music.
- Abstract(参考訳): オリジナルとアレンジされた既存の音楽成果は、習得に何年もの学習と実践を要する芸術である。
しかし、aiによる音楽創造の分野における絶え間ない進歩にもかかわらず、質の高い音楽結果の生産は、まだ人間の前兆である。
ここでは,水中の1つの気泡が,古典音楽の一片を符号化する音響圧力信号の下で非線形に振動するときに,創造的な音楽結果を生み出すために使用できることを実証する。
バブルの応答の音声信号は、オリジナルの作曲のエレキギターバージョンに似ている。
我々は,このバブルの性質が,音楽の配置と構成において人間の創造性をシミュレートできる物理に着想を得たAIシステムの構築に有効である,という理論的支持論を提案し,提案する。
関連論文リスト
- SongCreator: Lyrics-based Universal Song Generation [53.248473603201916]
SongCreatorは、声楽と伴奏の両方で曲を生成するという課題に取り組むために設計された曲生成システムである。
モデルには2つの新しいデザインがある: ボーカルの情報と伴奏を収録するための巧妙に設計された二重系列言語モデル (M) と、DSLMのための一連の注意マスク戦略である。
実験では,8つのタスクすべてに対して,最先端ないし競争的なパフォーマンスを実現することにより,SongCreatorの有効性を示す。
論文 参考訳(メタデータ) (2024-09-09T19:37:07Z) - ComposerX: Multi-Agent Symbolic Music Composition with LLMs [51.68908082829048]
音楽の構成は、長い依存と調和の制約で情報を理解し、生成する能力を必要とする複雑なタスクである。
現在のLLMは、このタスクで簡単に失敗し、In-Context-LearningやChain-of-Thoughtsといったモダンな技術が組み込まれても、不適切な曲を生成する。
エージェントベースのシンボリック音楽生成フレームワークであるComposerXを提案する。
論文 参考訳(メタデータ) (2024-04-28T06:17:42Z) - LyricJam Sonic: A Generative System for Real-Time Composition and
Musical Improvisation [13.269034230828032]
LyricJam Sonicは、ミュージシャンが以前の録音を再発見し、他の録音とテクスチャ化し、オリジナル音楽の作曲をリアルタイムで作成するための新しいツールである。
バイモーダルAI駆動のアプローチでは、生成された歌詞行を使用して、アーティストの過去のスタジオ録音から一致するオーディオクリップを見つける。
アーティストたちは、過去の音声セグメントを意図的に探すという分析的・批判的な状態に陥るのではなく、音楽制作に創造的な流れを保とうとしている。
論文 参考訳(メタデータ) (2022-10-27T17:27:58Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Bach Style Music Authoring System based on Deep Learning [0.0]
本研究の目的は,ディープラーニングに基づくバッハスタイルの音楽オーサリングシステムを設計することである。
LSTMニューラルネットワークを用いて、シリアライズおよび標準化された音楽特徴データをトレーニングする。
Bach 音楽の模倣を生成できる最適な LSTM モデルを見いだす。
論文 参考訳(メタデータ) (2021-10-06T10:30:09Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Research on AI Composition Recognition Based on Music Rules [7.699648754969773]
モーメント抽出による楽曲ルール識別アルゴリズムを構築する。
それは、機械生成音楽のモードの安定性を特定し、それが人工知能であるかどうかを判断する。
論文 参考訳(メタデータ) (2020-10-15T14:51:24Z) - Adaptive music: Automated music composition and distribution [0.0]
進化探索に基づくアルゴリズム合成法であるメロミクスを提案する。
このシステムは、様々な種類の音楽を作るために、高い創造力と汎用性を示してきた。
これはまた、全く新しい応用のセットの出現を可能にした。
論文 参考訳(メタデータ) (2020-07-25T09:38:06Z) - Feel The Music: Automatically Generating A Dance For An Input Song [58.653867648572]
本稿では,機械が任意の入力音楽に対してダンスを生成するための一般的な計算手法を提案する。
ダンスの構造は音楽の構造と一致すべきである。
論文 参考訳(メタデータ) (2020-06-21T20:29:50Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。