論文の概要: Towards Multimodal MIR: Predicting individual differences from
music-induced movement
- arxiv url: http://arxiv.org/abs/2007.10695v1
- Date: Tue, 21 Jul 2020 10:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:30:17.674259
- Title: Towards Multimodal MIR: Predicting individual differences from
music-induced movement
- Title(参考訳): マルチモーダルミールに向けて:音楽誘発運動と個人差の予測
- Authors: Yudhik Agrawal, Samyak Jain, Emily Carlson, Petri Toiviainen, Vinoo
Alluri
- Abstract要約: 身体運動は音楽と普遍的に結びついており、個性、気分、共感といった音楽の好みに関連する重要な個々の特徴を反映している。
本研究は, 個人差, 特にビッグファイブの性格特性を同定し, 参加者の自由ダンス運動からの共感・体系的行動(EQ/SQ)のスコアを抽出することによって, この問題に対処する。
よりパーソナライズされたマルチモーダルなレコメンデーションシステムを構築する上で、これらの特徴をムーブメントパターンにマッピングする方法や、治療応用の可能性について検討する。
- 参考スコア(独自算出の注目度): 1.3124513975412255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the field of Music Information Retrieval grows, it is important to take
into consideration the multi-modality of music and how aspects of musical
engagement such as movement and gesture might be taken into account. Bodily
movement is universally associated with music and reflective of important
individual features related to music preference such as personality, mood, and
empathy. Future multimodal MIR systems may benefit from taking these aspects
into account. The current study addresses this by identifying individual
differences, specifically Big Five personality traits, and scores on the
Empathy and Systemizing Quotients (EQ/SQ) from participants' free dance
movements. Our model successfully explored the unseen space for personality as
well as EQ, SQ, which has not previously been accomplished for the latter. R2
scores for personality, EQ, and SQ were 76.3%, 77.1%, and 86.7% respectively.
As a follow-up, we investigated which bodily joints were most important in
defining these traits. We discuss how further research may explore how the
mapping of these traits to movement patterns can be used to build a more
personalized, multi-modal recommendation system, as well as potential
therapeutic applications.
- Abstract(参考訳): 音楽情報検索の分野が拡大するにつれて、音楽の多様性や、動きやジェスチャーといった音楽的エンゲージメントの側面を考慮に入れることが重要である。
身体運動は音楽と普遍的に関連しており、個性、気分、共感といった音楽の好みに関連する重要な個性を反映している。
将来のマルチモーダルMIRシステムは、これらの側面を考慮することで恩恵を受けるかもしれない。
本研究は, 個人差, 特にビッグファイブの性格特性を同定し, 参加者の自由ダンス運動からの共感・体系的行動(EQ/SQ)の得点について考察する。
われわれのモデルでは、未確認のパーソナリティ空間とEQ、SQの探索に成功している。
R2スコアはパーソナリティ、EQ、SQはそれぞれ76.3%、77.1%、86.7%であった。
続いて,これらの特徴を定義する上で,どの関節が重要かを検討した。
我々は,これらの特徴の移動パターンへのマッピングが,よりパーソナライズされたマルチモーダルなレコメンデーションシステムの構築や,潜在的な治療応用にどのように役立つか,さらなる研究がいかに役立つかについて議論する。
関連論文リスト
- A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - Between the AI and Me: Analysing Listeners' Perspectives on AI- and Human-Composed Progressive Metal Music [1.2874569408514918]
我々は,ロックミュージックをコントロールグループとして利用し,AIと人為的に生成するプログレッシブメタルに対する参加者の視点を探る。
本稿では,世代タイプ(人間対AI),ジャンル(プログレッシブメタル対ロック),キュレーションプロセス(ランダム対チェリーピック)の効果を評価するための混合手法を提案する。
本研究は,AI音楽生成におけるジャンル別特化を実現するために,ファインチューニングを用いたことを検証する。
人間の音楽に類似した評価を受けるAI生成の抜粋はいくつかあったが、聴取者は人間の作曲を好んだ。
論文 参考訳(メタデータ) (2024-07-31T14:03:45Z) - MusER: Musical Element-Based Regularization for Generating Symbolic
Music with Emotion [16.658813060879293]
本稿では,音楽的要素に基づく正則化を潜在空間に導入し,異なる要素をアンタングルする手法を提案する。
潜在空間を可視化することにより、 MusER は非絡み合いで解釈可能な潜在空間が得られると結論付ける。
実験の結果,MusERは感情音楽を生成する最先端のモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-12-16T03:50:13Z) - Affective Idiosyncratic Responses to Music [63.969810774018775]
本研究では,中国社会音楽プラットフォーム上での403万以上のリスナーコメントから,音楽に対する感情応答を測定する手法を開発した。
我々は,聴取者の感情反応を促進する音楽的,歌詞的,文脈的,人口動態的,精神的健康的効果をテストした。
論文 参考訳(メタデータ) (2022-10-17T19:57:46Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - Modelling Moral Traits with Music Listening Preferences and Demographics [2.3204178451683264]
カナダで実施されているオンライン調査から,音楽ジャンルの嗜好,人口統計,道徳的価値の関連性を検討する。
以上の結果から,人の道徳的価値を予測する上での音楽の重要性が示された(.55-.69 AUROC)。
論文 参考訳(メタデータ) (2021-07-01T10:26:29Z) - Multitask Learning for Emotion and Personality Detection [17.029426018676997]
本研究では,人格特性と感情行動の相関関係を解明し,新しいマルチタスク学習フレームワークSoGMTLを提案する。
当社の計算効率の高いCNNベースのマルチタスクモデルは、複数の有名なパーソナリティおよび感情データセットにわたる最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-01-07T03:09:55Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。