論文の概要: Muse-it: A Tool for Analyzing Music Discourse on Reddit
- arxiv url: http://arxiv.org/abs/2509.20228v1
- Date: Wed, 24 Sep 2025 15:22:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.875808
- Title: Muse-it: A Tool for Analyzing Music Discourse on Reddit
- Title(参考訳): Muse-it:Redditで音楽談話を分析するツール
- Authors: Jatin Agarwala, George Paul, Nemani Harsha Vardhan, Vinoo Alluri,
- Abstract要約: Muse-itは、ユーザ定義クエリを中心とした包括的なRedditデータを取得するプラットフォームである。
また、音楽関連のハイパーリンク(Spotifyなど)を特定し、アーティスト、アルバム、リリース日、ジャンル、人気、歌詞などのトラックレベルのメタデータを検索し、議論にリンクする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music engagement spans diverse interactions with music, from selection and emotional response to its impact on behavior, identity, and social connections. Social media platforms provide spaces where such engagement can be observed in natural, unprompted conversations. Advances in natural language processing (NLP) and big data analytics make it possible to analyze these discussions at scale, extending music research to broader contexts. Reddit, in particular, offers anonymity that encourages diverse participation and yields rich discourse on music in ecological settings. Yet the scale of this data requires tools to extract, process, and analyze it effectively. We present Muse-it, a platform that retrieves comprehensive Reddit data centered on user-defined queries. It aggregates posts from across subreddits, supports topic modeling, temporal trend analysis, and clustering, and enables efficient study of large-scale discourse. Muse-it also identifies music-related hyperlinks (e.g., Spotify), retrieves track-level metadata such as artist, album, release date, genre, popularity, and lyrics, and links these to the discussions. An interactive interface provides dynamic visualizations of the collected data. Muse-it thus offers an accessible way for music researchers to gather and analyze big data, opening new avenues for understanding music engagement as it naturally unfolds online.
- Abstract(参考訳): 音楽のエンゲージメントは、選択や感情的な反応から、その行動、アイデンティティ、社会的つながりへの影響まで、音楽との多様な相互作用にまたがる。
ソーシャルメディアプラットフォームは、このようなエンゲージメントを、自然の、未開の会話で観察できる空間を提供する。
自然言語処理(NLP)とビッグデータ分析の進歩により、これらの議論を大規模に分析し、音楽研究をより広い文脈に広げることができる。
特にRedditは、多様な参加を促す匿名性を提供し、生態学的環境における音楽に関する豊富な談話を提供する。
しかし、このデータの規模は、効率的に抽出、処理、分析するツールを必要とします。
Muse-itは、ユーザ定義クエリを中心とした包括的なRedditデータを取得するプラットフォームである。
サブレディット全体からの投稿を集約し、トピックモデリング、時間的傾向分析、クラスタリングをサポートし、大規模談話の効率的な研究を可能にする。
Muse-itはまた、音楽関連のハイパーリンク(例えばSpotify)を特定し、アーティスト、アルバム、リリース日、ジャンル、人気、歌詞などのトラックレベルのメタデータを取得し、議論にリンクする。
インタラクティブインターフェースは、収集されたデータの動的可視化を提供する。
Muse-itは、音楽研究者がビッグデータを収集し分析するためのアクセス可能な手段を提供し、オンラインに自然に広がる音楽のエンゲージメントを理解するための新たな道を開く。
関連論文リスト
- Modeling Musical Genre Trajectories through Pathlet Learning [3.6133082266958616]
本稿では,辞書学習のパラダイムを用いて,さまざまなジャンルのユーザトラジェクトリをモデル化する。
我々は、パスレットと呼ばれるジャンルトラジェクトリにおける繰り返しパターンをキャプチャする新しいフレームワークを定義する。
その結果,パスレット学習は質的かつ定量的に分析可能な関連する聴取パターンを明らかにした。
論文 参考訳(メタデータ) (2025-05-06T12:33:40Z) - Can Impressions of Music be Extracted from Thumbnail Images? [20.605634973566573]
音楽データとそれに対応する自然言語記述からなる大規模な公開データセットは、音楽キャプションとして知られています。
音楽サムネイル画像から推定される非音楽的側面を取り入れた音楽キャプションデータを生成する手法を提案する。
非音楽的側面を含む約360,000字幕のデータセットを作成し,音楽検索モデルを訓練した。
論文 参考訳(メタデータ) (2025-01-05T11:51:38Z) - Music Discovery Dialogue Generation Using Human Intent Analysis and Large Language Models [10.022036983890091]
本稿では,多言語モデル(LLM)とユーザ意図,システム動作,音楽属性を用いたリッチな音楽発見対話のためのデータ生成フレームワークを提案する。
このフレームワークをMario Songデータセットに適用することにより,大規模言語モデルに基づくPseudo Music DialogueデータセットであるLP-MusicDialogを作成する。
評価の結果,人工音声データセットは,既存の小さな対話データセットと競合することがわかった。
論文 参考訳(メタデータ) (2024-11-11T23:40:45Z) - Enriching Music Descriptions with a Finetuned-LLM and Metadata for Text-to-Music Retrieval [7.7464988473650935]
Text-to-Music Retrievalは、広範な音楽データベース内のコンテンツ発見において重要な役割を担っている。
本稿では,TTMR++と呼ばれる改良されたテキスト・音楽検索モデルを提案する。
論文 参考訳(メタデータ) (2024-10-04T09:33:34Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - A Dataset and Baselines for Measuring and Predicting the Music Piece Memorability [16.18336216092687]
音楽の記憶力の測定と予測に重点を置いている。
私たちは、音楽の記憶可能性の予測と分析のためにベースラインを訓練します。
改善の余地はあるものの、限られたデータで音楽の記憶可能性を予測することは可能であることを実証する。
論文 参考訳(メタデータ) (2024-05-21T14:57:04Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。