論文の概要: Towards Multimodal MIR: Predicting individual differences from
music-induced movement
- arxiv url: http://arxiv.org/abs/2007.10695v1
- Date: Tue, 21 Jul 2020 10:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:30:17.674259
- Title: Towards Multimodal MIR: Predicting individual differences from
music-induced movement
- Title(参考訳): マルチモーダルミールに向けて:音楽誘発運動と個人差の予測
- Authors: Yudhik Agrawal, Samyak Jain, Emily Carlson, Petri Toiviainen, Vinoo
Alluri
- Abstract要約: 身体運動は音楽と普遍的に結びついており、個性、気分、共感といった音楽の好みに関連する重要な個々の特徴を反映している。
本研究は, 個人差, 特にビッグファイブの性格特性を同定し, 参加者の自由ダンス運動からの共感・体系的行動(EQ/SQ)のスコアを抽出することによって, この問題に対処する。
よりパーソナライズされたマルチモーダルなレコメンデーションシステムを構築する上で、これらの特徴をムーブメントパターンにマッピングする方法や、治療応用の可能性について検討する。
- 参考スコア(独自算出の注目度): 1.3124513975412255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the field of Music Information Retrieval grows, it is important to take
into consideration the multi-modality of music and how aspects of musical
engagement such as movement and gesture might be taken into account. Bodily
movement is universally associated with music and reflective of important
individual features related to music preference such as personality, mood, and
empathy. Future multimodal MIR systems may benefit from taking these aspects
into account. The current study addresses this by identifying individual
differences, specifically Big Five personality traits, and scores on the
Empathy and Systemizing Quotients (EQ/SQ) from participants' free dance
movements. Our model successfully explored the unseen space for personality as
well as EQ, SQ, which has not previously been accomplished for the latter. R2
scores for personality, EQ, and SQ were 76.3%, 77.1%, and 86.7% respectively.
As a follow-up, we investigated which bodily joints were most important in
defining these traits. We discuss how further research may explore how the
mapping of these traits to movement patterns can be used to build a more
personalized, multi-modal recommendation system, as well as potential
therapeutic applications.
- Abstract(参考訳): 音楽情報検索の分野が拡大するにつれて、音楽の多様性や、動きやジェスチャーといった音楽的エンゲージメントの側面を考慮に入れることが重要である。
身体運動は音楽と普遍的に関連しており、個性、気分、共感といった音楽の好みに関連する重要な個性を反映している。
将来のマルチモーダルMIRシステムは、これらの側面を考慮することで恩恵を受けるかもしれない。
本研究は, 個人差, 特にビッグファイブの性格特性を同定し, 参加者の自由ダンス運動からの共感・体系的行動(EQ/SQ)の得点について考察する。
われわれのモデルでは、未確認のパーソナリティ空間とEQ、SQの探索に成功している。
R2スコアはパーソナリティ、EQ、SQはそれぞれ76.3%、77.1%、86.7%であった。
続いて,これらの特徴を定義する上で,どの関節が重要かを検討した。
我々は,これらの特徴の移動パターンへのマッピングが,よりパーソナライズされたマルチモーダルなレコメンデーションシステムの構築や,潜在的な治療応用にどのように役立つか,さらなる研究がいかに役立つかについて議論する。
関連論文リスト
- MusER: Musical Element-Based Regularization for Generating Symbolic
Music with Emotion [16.658813060879293]
本稿では,音楽的要素に基づく正則化を潜在空間に導入し,異なる要素をアンタングルする手法を提案する。
潜在空間を可視化することにより、 MusER は非絡み合いで解釈可能な潜在空間が得られると結論付ける。
実験の結果,MusERは感情音楽を生成する最先端のモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-12-16T03:50:13Z) - Affective Idiosyncratic Responses to Music [63.969810774018775]
本研究では,中国社会音楽プラットフォーム上での403万以上のリスナーコメントから,音楽に対する感情応答を測定する手法を開発した。
我々は,聴取者の感情反応を促進する音楽的,歌詞的,文脈的,人口動態的,精神的健康的効果をテストした。
論文 参考訳(メタデータ) (2022-10-17T19:57:46Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - Modelling Moral Traits with Music Listening Preferences and Demographics [2.3204178451683264]
カナダで実施されているオンライン調査から,音楽ジャンルの嗜好,人口統計,道徳的価値の関連性を検討する。
以上の結果から,人の道徳的価値を予測する上での音楽の重要性が示された(.55-.69 AUROC)。
論文 参考訳(メタデータ) (2021-07-01T10:26:29Z) - Two-Faced Humans on Twitter and Facebook: Harvesting Social Multimedia
for Human Personality Profiling [74.83957286553924]
我々は、"PERS"と呼ばれる新しい多視点融合フレームワークを適用して、マイアーズ・ブリッグス・パーソナリティ・タイプインジケータを推定する。
実験の結果,多視点データからパーソナリティ・プロファイリングを学習する能力は,多様なソーシャル・マルチメディア・ソースからやってくるデータを効率的に活用できることが示唆された。
論文 参考訳(メタデータ) (2021-06-20T10:48:49Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Multitask Learning for Emotion and Personality Detection [17.029426018676997]
本研究では,人格特性と感情行動の相関関係を解明し,新しいマルチタスク学習フレームワークSoGMTLを提案する。
当社の計算効率の高いCNNベースのマルチタスクモデルは、複数の有名なパーソナリティおよび感情データセットにわたる最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-01-07T03:09:55Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。