論文の概要: Surprising Patterns in Musical Influence Networks
- arxiv url: http://arxiv.org/abs/2410.15996v1
- Date: Mon, 21 Oct 2024 13:27:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 12:31:07.361112
- Title: Surprising Patterns in Musical Influence Networks
- Title(参考訳): 音楽影響ネットワークにおけるサプライズパターン
- Authors: Flavio Figueiredo, Tales Panoutsos, Nazareno Andrade,
- Abstract要約: ベイジアンサプライズを音楽効果ネットワークの進化を追跡するために応用する。
アーティストの影響の1つと、カバー、リミックス、サンプルの2つのネットワークを使用することで、ネットワーク構造に大きな変化が見られました。
- 参考スコア(独自算出の注目度): 1.5390962520179197
- License:
- Abstract: Analyzing musical influence networks, such as those formed by artist influence or sampling, has provided valuable insights into contemporary Western music. Here, computational methods like centrality rankings help identify influential artists. However, little attention has been given to how influence changes over time. In this paper, we apply Bayesian Surprise to track the evolution of musical influence networks. Using two networks -- one of artist influence and another of covers, remixes, and samples -- our results reveal significant periods of change in network structure. Additionally, we demonstrate that Bayesian Surprise is a flexible framework for testing various hypotheses on network evolution with real-world data.
- Abstract(参考訳): 芸術家の影響やサンプリングによって形成されたような音楽の影響ネットワークを分析することは、現代西洋音楽に貴重な洞察を与えてきた。
ここでは、集中度ランキングのような計算手法が、影響力のあるアーティストを特定するのに役立つ。
しかし、時間とともにどのように影響が変化するかはほとんど注目されていない。
本稿では,ベイジアンサプライズを用いて音楽効果ネットワークの進化を追跡する。
アーティストの影響の1つと、カバー、リミックス、サンプルの2つのネットワークを使用することで、ネットワーク構造に大きな変化が見られました。
さらに,ベイジアンサプライズ(Bayesian Surprise)は,実世界のデータを用いたネットワーク進化に関する様々な仮説をテストするフレキシブルなフレームワークであることを示す。
関連論文リスト
- InfluencerRank: Discovering Effective Influencers via Graph
Convolutional Attentive Recurrent Neural Networks [15.461845673443804]
本研究では,その投稿行動と時間的社会的関係に基づいて,インフルエンサーをその効果でランク付けするインフルエンサーランクを提案する。
Instagramのデータセットは18,397人のインフルエンサーで構成され、12ヶ月以内に2,952,075件の投稿が公開された。
論文 参考訳(メタデータ) (2023-04-04T15:48:08Z) - Universality of preference behaviors in online music-listener bipartite
networks: A Big Data analysis [4.062544367625752]
中国最大のオンライン音楽プラットフォームの一つであるNetEase Cloud Music (NCM) の何百万人ものユーザによる音楽嗜好の形成について検討する。
本分析では,音楽影響の減衰パターン,音楽に対するユーザの感受性,年齢・性別差,地域経済指標との関係について考察した。
論文 参考訳(メタデータ) (2022-12-26T12:50:56Z) - Influencer Detection with Dynamic Graph Neural Networks [56.1837101824783]
インフルエンサー検出のための動的グラフニューラルネットワーク(GNN)の構成について検討する。
GNNにおける深層多面的注意と時間特性の符号化が性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-11-15T13:00:25Z) - Affective Idiosyncratic Responses to Music [63.969810774018775]
本研究では,中国社会音楽プラットフォーム上での403万以上のリスナーコメントから,音楽に対する感情応答を測定する手法を開発した。
我々は,聴取者の感情反応を促進する音楽的,歌詞的,文脈的,人口動態的,精神的健康的効果をテストした。
論文 参考訳(メタデータ) (2022-10-17T19:57:46Z) - Stereoscopic Universal Perturbations across Different Architectures and
Datasets [60.021985610201156]
本研究では,画像の逆摂動が不均一性推定タスクの深部ステレオマッチングネットワークに与える影響について検討する。
本稿では,データセット内の任意のステレオ画像対に追加されると,ステレオネットワークを騙すことのできる,単一の摂動セットを構築する方法を提案する。
我々の摂動は、最先端のステレオネットワークのD1エラーを1%から87%に増やすことができる。
論文 参考訳(メタデータ) (2021-12-12T02:11:31Z) - Social influence leads to the formation of diverse local trends [20.470028015828333]
本研究では,Salganik et al's Music Lab 実験において,社会的影響がメディア人気に与える影響について検討した。
参加者がAI生成したハイブリッド動物を発見してキュレートするデジタルプラットフォーム上では、参加者の行動の知識と情報の視覚的提示の両方をランダムに割り当てる。
社会的影響は、現状から分岐し、究極的にはより多様な地域文化の傾向の出現に繋がる可能性がある。
論文 参考訳(メタデータ) (2021-08-17T04:17:30Z) - AttentionFlow: Visualising Influence in Networks of Time Series [80.61555138658578]
本稿では,時系列のネットワークと,それらが相互に持つ動的影響を可視化する新しいシステムであるAttentionFlowを紹介する。
曲の注目度は、大賞などの外部イベントや、新曲のリリースなどのネットワークの変化によって説明できることを示す。
AttentionFlowは、道路ネットワークのような物理的なインフラ上の時系列のネットワークや、気象や地質測定のような自然現象を可視化するために一般化することができる。
論文 参考訳(メタデータ) (2021-02-03T09:44:46Z) - Efficient Estimation of Influence of a Training Instance [56.29080605123304]
本稿では,ニューラルネットワークモデルに対するトレーニングインスタンスの影響を効率的に推定する手法を提案する。
このメソッドは、サブネットワークをゼロマスクし、サブネットワークが各トレーニングインスタンスを学習するのを防ぎます。
提案手法は, 学習の影響を捉え, 誤り予測の解釈性を高め, 一般化改善のための訓練データセットをクリーン化できることを実証する。
論文 参考訳(メタデータ) (2020-12-08T04:31:38Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - From Artificial Neural Networks to Deep Learning for Music Generation --
History, Concepts and Trends [0.0]
本稿では,ディープラーニング技術に基づく音楽生成のチュートリアルを提供する。
1980年代後半から、音楽生成のための人工ニューラルネットワークを用いて、いくつかの初期の作品を分析している。
論文 参考訳(メタデータ) (2020-04-07T00:33:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。