論文の概要: AI Harmonizer: Expanding Vocal Expression with a Generative Neurosymbolic Music AI System
- arxiv url: http://arxiv.org/abs/2506.18143v1
- Date: Sun, 22 Jun 2025 19:13:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.7728
- Title: AI Harmonizer: Expanding Vocal Expression with a Generative Neurosymbolic Music AI System
- Title(参考訳): AI Harmonizer: 生成型ニューロシンボリックミュージックAIシステムで音声表現を拡張する
- Authors: Lancelot Blanchard, Cameron Holt, Joseph A. Paradiso,
- Abstract要約: AI Harmonizerは、ユーザの事前のハーモニック入力を必要とせずに、音楽的にコヒーレントな4つのハーモニーを自律的に生成する。
本稿では,本手法を述べるとともに,性能と構成の潜在的な応用を探求し,リアルタイム実装の今後の方向性について論じる。
- 参考スコア(独自算出の注目度): 3.356609500886644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vocals harmonizers are powerful tools to help solo vocalists enrich their melodies with harmonically supportive voices. These tools exist in various forms, from commercially available pedals and software to custom-built systems, each employing different methods to generate harmonies. Traditional harmonizers often require users to manually specify a key or tonal center, while others allow pitch selection via an external keyboard-both approaches demanding some degree of musical expertise. The AI Harmonizer introduces a novel approach by autonomously generating musically coherent four-part harmonies without requiring prior harmonic input from the user. By integrating state-of-the-art generative AI techniques for pitch detection and voice modeling with custom-trained symbolic music models, our system arranges any vocal melody into rich choral textures. In this paper, we present our methods, explore potential applications in performance and composition, and discuss future directions for real-time implementations. While our system currently operates offline, we believe it represents a significant step toward AI-assisted vocal performance and expressive musical augmentation. We release our implementation on GitHub.
- Abstract(参考訳): ボーカルハーモナイザーは、ソロのボーカリストが彼らのメロディを調和的に支持する声で豊かにするのを助ける強力なツールである。
これらのツールは、市販のペダルやソフトウェアからカスタムビルドシステムまで、さまざまな形式で存在し、それぞれがハーモニーを生成するために異なる方法を使用している。
伝統的なハーモニエータは、ユーザーが手動でキーや音調センターを指定することを要求することが多いが、外部のキーボードによるピッチ選択は、ある程度の音楽的専門知識を必要とする。
AI Harmonizerは、ユーザからの事前のハーモニック入力を必要とせずに、音楽的にコヒーレントな4パートのハーモニーを自律的に生成する、新しいアプローチを導入している。
ピッチ検出と音声モデリングのための最先端な生成AI技術と、カスタムトレーニングされたシンボリック・ミュージック・モデルを統合することで、我々のシステムはあらゆる声のメロディをリッチな合唱テクスチャに配置する。
本稿では,本手法を述べるとともに,性能と構成の潜在的な応用を探求し,リアルタイム実装の今後の方向性について議論する。
私たちのシステムは、現在オフラインで運用されていますが、AIによる音声演奏と表現力のある音楽拡張に向けた大きな一歩だと信じています。
実装はGitHubでリリースしています。
関連論文リスト
- Machine Learning Approaches to Vocal Register Classification in Contemporary Male Pop Music [49.1574468325115]
ポップミュージックでは、1人のアーティストが好みの質を達成するために様々な音色やテクスチャを使用する場合があり、歌手が使用するボーカル範囲内でのボーカルレジスタを特定することは困難である。
本稿では,メル・スペクトログラム画像のテクスチャ的特徴の分析を通じて,男性ポップミュージックの音声信号に声帯を分類する2つの方法を提案する。
論文 参考訳(メタデータ) (2025-05-16T15:41:28Z) - SongGen: A Single Stage Auto-regressive Transformer for Text-to-Song Generation [75.86473375730392]
SongGenは、コントロール可能な曲を生成するための、完全なオープンソースでシングルステージの自動回帰トランスフォーマーである。
音声と伴奏の混合を生成する混合モードと、それらを別々に合成するデュアルトラックモードの2つの出力モードをサポートする。
コミュニティの関与と今後の研究を促進するため、私たちは、モデルの重み付け、トレーニングコード、注釈付きデータ、前処理パイプラインをリリースします。
論文 参考訳(メタデータ) (2025-02-18T18:52:21Z) - Prompt-Singer: Controllable Singing-Voice-Synthesis with Natural Language Prompt [50.25271407721519]
本稿では,歌手の性別,声域,音量を自然言語で制御できる最初のSVS手法であるPrompt-Singerを提案する。
我々は,マルチスケール階層を持つデコーダのみの変換器に基づくモデルアーキテクチャを採用し,レンジメロディデカップリングされたピッチ表現を設計する。
実験により,本モデルは良好な制御能力と音質が得られることが示された。
論文 参考訳(メタデータ) (2024-03-18T13:39:05Z) - Loop Copilot: Conducting AI Ensembles for Music Generation and Iterative Editing [10.159860910939686]
Loop Copilotはインタラクティブな多ラウンド対話インタフェースを通じてユーザが音楽を生成し、反復的に洗練することを可能にする新しいシステムである。
このシステムは、大きな言語モデルを使用して、ユーザの意図を解釈し、タスク実行に適切なAIモデルを選択する。
論文 参考訳(メタデータ) (2023-10-19T01:20:12Z) - Multi-instrument Music Synthesis with Spectrogram Diffusion [19.81982315173444]
我々は、MIDIシーケンスから任意の組み合わせの楽器をリアルタイムで生成できるニューラルシンセサイザーの中盤に焦点を当てる。
MIDIはエンコーダ・デコーダ変換器でスペクトログラム、次いでGAN(Generative Adversarial Network)スペクトルインバータでスペクトログラムからオーディオへ分光する。
これは、楽器と音符の任意の組み合わせのための対話的で表現力のあるニューラルシンセシスに向けた、有望な第一歩である。
論文 参考訳(メタデータ) (2022-06-11T03:26:15Z) - Unsupervised Cross-Domain Singing Voice Conversion [105.1021715879586]
任意の同一性から音声変換を行うタスクに対して,wav-to-wav生成モデルを提案する。
提案手法は,自動音声認識のタスクのために訓練された音響モデルとメロディ抽出機能の両方を用いて波形ベースジェネレータを駆動する。
論文 参考訳(メタデータ) (2020-08-06T18:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。