論文の概要: Emovectors: assessing emotional content in jazz improvisations for creativity evaluation
- arxiv url: http://arxiv.org/abs/2512.08812v1
- Date: Tue, 09 Dec 2025 17:05:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.058388
- Title: Emovectors: assessing emotional content in jazz improvisations for creativity evaluation
- Title(参考訳): エモーベクター:創造性評価のためのジャズ即興演奏における感情内容の評価
- Authors: Anna Jordanous,
- Abstract要約: ジャズにおいて、ミュージシャンは事前に定義されたコード進行(リードシート)を越えて即興演奏する
現在のLLMベースの生成システムのための創造性のための自動メトリクスでこれをキャプチャできますか?
音楽の即興演奏における情緒的内容の把握のための埋め込み型手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music improvisation is fascinating to study, being essentially a live demonstration of a creative process. In jazz, musicians often improvise across predefined chord progressions (leadsheets). How do we assess the creativity of jazz improvisations? And can we capture this in automated metrics for creativity for current LLM-based generative systems? Demonstration of emotional involvement is closely linked with creativity in improvisation. Analysing musical audio, can we detect emotional involvement? This study hypothesises that if an improvisation contains more evidence of emotion-laden content, it is more likely to be recognised as creative. An embeddings-based method is proposed for capturing the emotional content in musical improvisations, using a psychologically-grounded classification of musical characteristics associated with emotions. Resulting 'emovectors' are analysed to test the above hypothesis, comparing across multiple improvisations. Capturing emotional content in this quantifiable way can contribute towards new metrics for creativity evaluation that can be applied at scale.
- Abstract(参考訳): 音楽の即興化は、本質的には創造的なプロセスのライブデモである。
ジャズでは、ミュージシャンは事前に定義されたコード進行(リードシート)を即興演奏することが多い。
ジャズ即興の創造性を評価するには?
そして、これを現在のLLMベースの生成システムのためのクリエイティビティのための自動メトリクスにキャプチャできるだろうか?
感情的関与の実証は即興における創造性と密接に関連している。
音楽音声の分析 : 感情的関与を検知できるか?
この研究は、即興化が感情を織り込んだ内容の証拠を多く含むとすると、創造的であると認識される可能性が高くなると仮説を立てている。
感情に関連した音楽的特徴の心理学的分類を用いて,即興演奏における情緒的内容の捉え方を提案する。
エモーベクター」の結果は、上記の仮説をテストするために分析され、複数の即興法と比較される。
この定量的な方法で感情的コンテンツをキャプチャすることは、大規模に適用可能な創造性評価のための新しいメトリクスに貢献することができる。
関連論文リスト
- Music Interpretation and Emotion Perception: A Computational and Neurophysiological Investigation [1.2000613456354128]
本研究では,音楽演奏における感情表現と知覚について,計算的・神経生理学的手法を用いて検討した。
演奏者の情緒的コミュニケーションやリスナーの反応に及ぼすレパートリー,ダイアトニック・モーダル・オード,即興性,表現性のレベルなどの異なる演奏設定の影響について検討した。
論文 参考訳(メタデータ) (2025-05-16T15:30:38Z) - Disentangle Identity, Cooperate Emotion: Correlation-Aware Emotional Talking Portrait Generation [63.94836524433559]
DICE-Talkは、感情と同一性を切り離し、類似した特徴を持つ感情を協調するフレームワークである。
我々は、モーダル・アテンションを通して、音声と視覚の感情の手がかりを共同でモデル化するアンタングル型感情埋め込み装置を開発した。
次に,学習可能な感情バンクを用いた相関強化感情調和モジュールを提案する。
第3に、拡散過程における感情の一貫性を強制する感情識別目標を設計する。
論文 参考訳(メタデータ) (2025-04-25T05:28:21Z) - Emotion Manipulation Through Music -- A Deep Learning Interactive Visual Approach [0.0]
我々は,AIツールを用いて歌の感情的内容を操作する新しい方法を提案する。
私たちのゴールは、元のメロディをできるだけそのままにして、望ましい感情を達成することです。
この研究は、オンデマンドのカスタム音楽生成、既存の作品の自動リミックス、感情の進行に合わせて調整された音楽プレイリストに寄与する可能性がある。
論文 参考訳(メタデータ) (2024-06-12T20:12:29Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Evaluating Co-Creativity using Total Information Flow [6.3289703660543495]
音楽におけるコ・クリエーション(co-creativity)とは、音楽の作曲や即興で相互に相互作用する2人以上の音楽家または音楽家を指す。
本研究では,事前学習した生成モデルを用いて情報フローをエントロピー推定器として計算する手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T22:15:39Z) - MusER: Musical Element-Based Regularization for Generating Symbolic
Music with Emotion [16.658813060879293]
本稿では,音楽的要素に基づく正則化を潜在空間に導入し,異なる要素をアンタングルする手法を提案する。
潜在空間を可視化することにより、 MusER は非絡み合いで解釈可能な潜在空間が得られると結論付ける。
実験の結果,MusERは感情音楽を生成する最先端のモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-12-16T03:50:13Z) - Affective Idiosyncratic Responses to Music [63.969810774018775]
本研究では,中国社会音楽プラットフォーム上での403万以上のリスナーコメントから,音楽に対する感情応答を測定する手法を開発した。
我々は,聴取者の感情反応を促進する音楽的,歌詞的,文脈的,人口動態的,精神的健康的効果をテストした。
論文 参考訳(メタデータ) (2022-10-17T19:57:46Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。