論文の概要: Losses, Dissonances, and Distortions
- arxiv url: http://arxiv.org/abs/2111.05128v1
- Date: Mon, 8 Nov 2021 15:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 02:17:50.454878
- Title: Losses, Dissonances, and Distortions
- Title(参考訳): 損失、不協和、歪み
- Authors: Pablo Samuel Castro
- Abstract要約: ピアノ演奏における音楽的不協和と視覚的歪みを発生させるメカニズムとして,関数近似器の訓練中に得られた損失と勾配を利用する方法を提案する。
システムは、パフォーマーがトレーニングプロセス自体に影響を与えるように設計されており、2つのプロセス間でクローズドなフィードバックループを生成する。
- 参考スコア(独自算出の注目度): 11.83574796338423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper I present a study in using the losses and gradients obtained
during the training of a simple function approximator as a mechanism for
creating musical dissonance and visual distortion in a solo piano performance
setting. These dissonances and distortions become part of an artistic
performance not just by affecting the visualizations, but also by affecting the
artistic musical performance. The system is designed such that the performer
can in turn affect the training process itself, thereby creating a closed
feedback loop between two processes: the training of a machine learning model
and the performance of an improvised piano piece.
- Abstract(参考訳): 本稿では,ピアノ演奏における音楽的不協和と視覚的歪みを生み出すメカニズムとして,単純な関数近似器の訓練中に得られた損失と勾配を利用する方法を提案する。
これらの不協和音と歪みは、可視化に影響を与えるだけでなく、芸術的な演奏にも影響を及ぼす。
このシステムは、演奏者がトレーニングプロセス自体に影響を与えるように設計され、機械学習モデルのトレーニングと即興ピアノの演奏の2つのプロセスの間に閉じたフィードバックループが作成される。
関連論文リスト
- Bridging Paintings and Music -- Exploring Emotion based Music Generation through Paintings [10.302353984541497]
本研究では,視覚芸術で表現される感情に共鳴する音楽を生成するモデルを開発した。
コーディネートアートと音楽データの不足に対処するため、私たちはEmotion Painting Musicデータセットをキュレートした。
我々の2段階のフレームワークは、イメージを感情的内容のテキスト記述に変換し、これらの記述を音楽に変換することで、最小限のデータによる効率的な学習を容易にする。
論文 参考訳(メタデータ) (2024-09-12T08:19:25Z) - Towards Explainable and Interpretable Musical Difficulty Estimation: A Parameter-efficient Approach [49.2787113554916]
音楽コレクションの整理には曲の難易度を推定することが重要である。
シンボリックな音楽表現の難易度推定には説明可能な記述子を用いる。
ピアノレパートリーで評価したアプローチは,平均2乗誤差(MSE)が1.7。
論文 参考訳(メタデータ) (2024-08-01T11:23:42Z) - Music Proofreading with RefinPaint: Where and How to Modify Compositions given Context [1.0650780147044159]
RefinPaintはサンプリングプロセスを改善するイテレーティブなテクニックである。
フィードバックモデルを使用して、より弱い音楽要素を特定することでこれを実現します。
実験結果から,RefinPaintの有効性が示唆された。
論文 参考訳(メタデータ) (2024-07-12T08:52:27Z) - Performance Conditioning for Diffusion-Based Multi-Instrument Music
Synthesis [15.670399197114012]
本稿では,特定の性能と記録環境に生成モデルを条件付け,多施設合成の制御を強化することを提案する。
パフォーマンスコンディショニング(Performance Conditioning)とは、特定の演奏から採った特定の楽器のスタイルと音色で音楽を合成する生成モデルを示すツールである。
試作機は,多種多様な楽器と最先端のFADリアリズムスコアを用いた未計算性能を用いて評価した。
論文 参考訳(メタデータ) (2023-09-21T17:44:57Z) - Music Instrument Classification Reprogrammed [79.68916470119743]
プログラム」とは、事前学習されたモデルの入力と出力の両方を修正・マッピングすることで、もともと異なるタスクをターゲットにした、事前学習された深層・複雑なニューラルネットワークを利用する手法である。
本研究では,異なるタスクで学習した表現のパワーを効果的に活用できることを実証し,結果として得られた再プログラムシステムは,訓練パラメータのごく一部で,同等あるいはそれ以上の性能を持つシステムでも実行可能であることを実証する。
論文 参考訳(メタデータ) (2022-11-15T18:26:01Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - Hierarchical Timbre-Painting and Articulation Generation [92.59388372914265]
本稿では,f0と大音量に基づく高速かつ高忠実な楽曲生成手法を提案する。
合成音声は、対象楽器の音色及び調音を模倣する。
論文 参考訳(メタデータ) (2020-08-30T05:27:39Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Audio Impairment Recognition Using a Correlation-Based Feature
Representation [85.08880949780894]
本稿では,特徴対の相関に基づく手作り特徴の新しい表現を提案する。
実験段階において,コンパクトな特徴次元と計算速度の向上の観点から,優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-22T13:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。