論文の概要: Unpacking Musical Symbolism in Online Communities: Content-Based and Network-Centric Approaches
- arxiv url: http://arxiv.org/abs/2510.00006v1
- Date: Sat, 13 Sep 2025 02:15:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 05:29:07.82711
- Title: Unpacking Musical Symbolism in Online Communities: Content-Based and Network-Centric Approaches
- Title(参考訳): オンラインコミュニティにおける音楽シンボリズムの解き放つ:コンテンツベースとネットワーク中心的アプローチ
- Authors: Kajwan Ziaoddini,
- Abstract要約: 本稿では、コンテンツに基づく音楽分析と、歌詞の軽量なネットワーク視点を組み合わせることで、オンラインコミュニティにおける音楽のシンボリズムの創出と流通について検討する。
275曲のチャートトッピングによるコーパスを用いて,音韻特性の時間的傾向を定量化する再現可能なパイプラインを構築した。
約10年にわたるエネルギー低下(79 ->58)と踊りやすさの上昇(59 ->73)がみられ,その後部分的に回復した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines how musical symbolism is produced and circulated in online communities by combining content-based music analysis with a lightweight network perspective on lyrics. Using a curated corpus of 275 chart-topping songs enriched with audio descriptors (energy, danceability, loudness, liveness, valence, acousticness, speechiness, popularity) and full lyric transcripts, we build a reproducible pipeline that (i) quantifies temporal trends in sonic attributes, (ii) models lexical salience and co-occurrence, and (iii) profiles mood by genre. We find a decade-long decline in energy (79 -> 58) alongside a rise in danceability (59 -> 73); valence peaks in 2013 (63) and dips in 2014-2016 (42) before partially recovering. Correlation analysis shows strong coupling of energy with loudness (r = 0.74) and negative associations for acousticness with both energy (r = -0.54) and loudness (r = -0.51); danceability is largely orthogonal to other features (|r| < 0.20). Lyric tokenization (>114k tokens) reveals a pronoun-centric lexicon "I/you/me/my" and a dense co-occurrence structure in which interpersonal address anchors mainstream narratives. Mood differs systematically by style: R&B exhibits the highest mean valence (96), followed by K-Pop/Pop (77) and Indie/Pop (70), whereas Latin/Reggaeton is lower (37) despite high danceability. Read through a subcultural identity lens, these patterns suggest the mainstreaming of previously peripheral codes and a commercial preference for relaxed yet rhythmically engaging productions that sustain collective participation without maximal intensity. Methodologically, we contribute an integrated MIR-plus-network workflow spanning summary statistics, correlation structure, lexical co-occurrence matrices, and genre-wise mood profiling that is robust to modality sparsity and suitable for socially aware recommendation or community-level diffusion studies.
- Abstract(参考訳): 本稿では、コンテンツに基づく音楽分析と、歌詞の軽量なネットワーク視点を組み合わせることで、オンラインコミュニティにおける音楽のシンボリズムの創出と流通について検討する。
音響ディスクリプタ(エネルギー、ダンス性、大声、ライブ性、原子価、音響性、発声性、人気度)に富んだ275のチャートトッピング曲のキュレートコーパスと、歌詞の完全な書き起こしを用いて、再現可能なパイプラインを構築した。
(i)音韻特性の時間的傾向を定量化する。
(二 語彙のサリエンスと共起度をモデルとする。)
(三)ジャンル別プロフィール
踊りやすさの上昇(59 ->73)、2013年(63)と2014-2016年(42)の値ピーク、そして部分的に回復する前の2014-2016年(42)の値ピークとともに、エネルギーの10年にわたる減少(79 ->58)がみられた。
相関解析により、高エネルギー (r = 0.74) と高エネルギー (r = -0.54) と高音 (r = -0.51) との負の結合が強く示され、踊り性は他の特徴 (|r| < 0.20) とほぼ直交している。
歌詞のトークン化(>114kトークン)は、代名詞中心の語彙「I/you/me/my」と、対人的なアドレスが主流の物語をアンカーする密集した共起構造を明らかにする。
R&B は最高値 (96) を示し、続いて K-Pop/Pop (77) と Indie/Pop (70) が続く。
サブカルチャーのアイデンティティレンズを通して読み取ると、これらのパターンは、それまでの周辺コードの主流化と、最大強度を伴わずに集団参加を維持できる、緩やかだがリズミカルに活動するプロダクションの商業的嗜好を示唆している。
提案手法は,要約統計,相関構造,語彙的共起行列,ジャンル的感情プロファイリングを網羅した統合的MIR+ネットワークワークフローで,モダリティに頑健で,社会的に意識されたレコメンデーションやコミュニティレベルの拡散研究に適している。
関連論文リスト
- ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing [52.33281620699459]
ThinkSoundは、Chain-of-Thought(CoT)推論を利用して、ビデオの段階的にインタラクティブなオーディオ生成と編集を可能にする新しいフレームワークである。
提案手法は,3つの相補的な段階に分解する: セマンティック・コヒーレント, 正確なユーザインタラクションによる対話型オブジェクト中心の洗練, 自然言語命令でガイドされたターゲット編集。
実験により、ThinkSoundはオーディオメトリクスとCoTメトリクスの両方で、ビデオからオーディオ生成における最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-06-26T16:32:06Z) - Linguistic Complexity and Socio-cultural Patterns in Hip-Hop Lyrics [0.0]
本稿では,ヒップホップ歌詞の言語的複雑さと社会文化的傾向を総合的に分析する枠組みを提案する。
1980-2020年、146人の影響力あるアーティストによる3,814曲のデータセットを用いて、自然言語処理技術を用いて、多次元の論理的複雑性を定量化する。
我々の分析では、調査期間中に語彙の多様性が23.7%増加し、東海岸のアーティストは他の地域よりも17.3%高い語彙変化を示した。
論文 参考訳(メタデータ) (2025-04-29T15:01:23Z) - MuVi: Video-to-Music Generation with Semantic Alignment and Rhythmic Synchronization [52.498942604622165]
本稿では,ビデオコンテンツに合わせた音楽を生成するためのフレームワークであるMuViについて述べる。
MuViは、特別に設計された視覚適応器を通じて映像コンテンツを分析し、文脈的および時間的に関係のある特徴を抽出する。
音声品質と時間同期の両方において, MuVi が優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T18:44:56Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Exploring the Emotional Landscape of Music: An Analysis of Valence
Trends and Genre Variations in Spotify Music Data [0.0]
本稿ではSpotifyの音楽データを用いた音楽感情と傾向の複雑な分析を行う。
回帰モデル、時間分析、気分遷移、ジャンル調査を応用し、音楽と感情の関係のパターンを明らかにする。
論文 参考訳(メタデータ) (2023-10-29T15:57:31Z) - Multimodal Lyrics-Rhythm Matching [0.0]
本稿では,歌詞と音楽のキーコンポーネントを相互にマッチングする,新しいマルチモーダルな歌詞・リズムマッチング手法を提案する。
楽譜の代わりに音声を使用し、メタデータを手軽に利用できるようにし、より多くの課題を生み出しますが、我々の手法の適用柔軟性は向上します。
実験の結果,平均一致確率は0.81であり,曲の約30%は強拍に着地するキーワードの0.9以上の確率を持つことがわかった。
論文 参考訳(メタデータ) (2023-01-06T22:24:53Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Generating Lead Sheets with Affect: A Novel Conditional seq2seq
Framework [3.029434408969759]
本稿では,リードシート内のコード進行の正負性や負性性を計算するための新しい手法を提案する。
私たちのアプローチは、シーケンス・トゥ・シークエンスアーキテクチャのエンコーダ部分に高レベルの条件を含むため、ニューラルネットワーク翻訳(NMT)問題に似ています。
提案された戦略は、制御可能な方法でリードシートを生成することができ、トレーニングデータセットのそれに似た音楽属性の分布をもたらす。
論文 参考訳(メタデータ) (2021-04-27T09:04:21Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z) - Time-Frequency Scattering Accurately Models Auditory Similarities
Between Instrumental Playing Techniques [5.923588533979649]
音色知覚は楽器や演奏技術だけで提供されるものよりも柔軟な分類法で機能することを示す。
本稿では,楽器,ミュート,技法間の類似性のクラスタグラフを復元するマシンリスニングモデルを提案する。
論文 参考訳(メタデータ) (2020-07-21T16:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。