論文の概要: Understanding Human Perception of Music Plagiarism Through a Computational Approach
- arxiv url: http://arxiv.org/abs/2601.02586v1
- Date: Mon, 05 Jan 2026 22:37:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.740559
- Title: Understanding Human Perception of Music Plagiarism Through a Computational Approach
- Title(参考訳): 計算的アプローチによる音楽プラジャリズムの人間の知覚理解
- Authors: Daeun Hwang, Hyeonbin Hwang,
- Abstract要約: 類似性分析では,メロディ,リズム,コード進行という3つの音楽的特徴に着目した。
LLM-as-a-judgeフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.404667592877916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a wide variety of music similarity detection algorithms, while discussions about music plagiarism in the real world are often based on audience perceptions. Therefore, we aim to conduct a study to examine the key criteria of human perception of music plagiarism, focusing on the three commonly used musical features in similarity analysis: melody, rhythm, and chord progression. After identifying the key features and levels of variation humans use in perceiving musical similarity, we propose a LLM-as-a-judge framework that applies a systematic, step-by-step approach, drawing on modules that extract such high-level attributes.
- Abstract(参考訳): 音楽類似性検出アルゴリズムは多種多様であるが,実世界の音楽盗作に関する議論は聴衆の認識に基づいて行われることが多い。
そこで本研究では,音楽プラギアリズムの人間の知覚の重要な基準について,メロディ,リズム,コード進行の3つの類似性分析に焦点をあてて検討することを目的とする。
音楽的類似性を知覚する上で人間が使用する重要な特徴と変化レベルを特定した後、このような高レベルな属性を抽出するモジュールに、系統的なステップバイステップアプローチを適用したLCM-as-a-judgeフレームワークを提案する。
関連論文リスト
- Music Flamingo: Scaling Music Understanding in Audio Language Models [98.94537017112704]
Music Flamingoは、基礎的なオーディオモデルにおける音楽理解を促進するために設計された、新しい大きなオーディオ言語モデルである。
MF-Skillsはマルチステージパイプラインを通じてラベル付けされたデータセットで、調和、構造、音色、歌詞、文化的な文脈をカバーする豊富なキャプションと質問応答ペアを生成する。
MF-Thinkは音楽理論に基づく新しいチェーン・オブ・シンク・データセットで、続いてGRPOベースの強化学習とカスタム報酬を取り入れた。
論文 参考訳(メタデータ) (2025-11-13T13:21:09Z) - Discovering "Words" in Music: Unsupervised Learning of Compositional Sparse Code for Symbolic Music [50.87225308217594]
本稿では,記号的音楽データから「音楽単語」と呼ばれる繰り返しパターンを識別する教師なし機械学習アルゴリズムを提案する。
本稿では,音楽単語発見の課題を統計的最適化問題として定式化し,二段階予測最大化(EM)に基づく学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-29T11:10:57Z) - Real-world Music Plagiarism Detection With Music Segment Transcription System [0.46412974300322135]
様々なMIR技術を組み合わせて音楽プラジャリズムを検出するシステムを提案する。
我々は,録音から音楽的に意味のあるセグメントを抽出し,盗作を検知する楽曲セグメント転写システムを開発した。
また,実例を用いた音楽類似性研究のための類似音楽ペアデータセットも収集した。
論文 参考訳(メタデータ) (2025-09-10T04:55:48Z) - Musical composition and 2D cellular automata based on music intervals [0.0]
本研究の目的は,音楽的文脈におけるセルラーオートマトンの利用法を検討することである。
我々は、複雑なシステムと人文科学のアプローチを、音楽の創造の本質を捉えるための枠組みとして用いた。
論文 参考訳(メタデータ) (2024-11-29T17:03:41Z) - Attention-guided Spectrogram Sequence Modeling with CNNs for Music Genre Classification [0.0]
注意に基づく時間的シグネチャモデリングを用いて音楽ジャンルを分類する革新的なモデルを提案する。
我々のアプローチは各作品の中でもっとも時間的に重要な瞬間を捉え、ジャンル識別のためのユニークな「シグナチャ」を作り上げる。
この研究は、技術的分類タスクと、ジャンルの微妙で人間的な経験のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-11-18T21:57:03Z) - Generating High-quality Symbolic Music Using Fine-grained Discriminators [42.200747558496055]
本稿では,メロディとリズムを音楽から分離し,それに対応する微粒な識別器を設計することを提案する。
具体的には、ピッチ増強戦略を備えるメロディ判別器は、生成されたサンプルによって提示されるメロディ変動を識別する。
バーレベルの相対的な位置エンコーディングで強化されたリズム判別器は、生成された音符の速度に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-03T07:32:21Z) - Fairness Through Domain Awareness: Mitigating Popularity Bias For Music
Discovery [56.77435520571752]
音楽発見と人気バイアスの本質的な関係について検討する。
本稿では,グラフニューラルネットワーク(GNN)に基づくレコメンデータシステムにおいて,人気バイアスに対処する,ドメイン対応の個別フェアネスに基づくアプローチを提案する。
我々のアプローチでは、個々の公正さを用いて、真実を聴く経験、すなわち2つの歌が似ているとすると、この類似性は彼らの表現に反映されるべきである。
論文 参考訳(メタデータ) (2023-08-28T14:12:25Z) - Knowledge-based Multimodal Music Similarity [0.0]
本研究は,シンボリックコンテンツとオーディオコンテンツの両方を用いた音楽的類似性の研究に焦点をあてる。
本研究の目的は、音楽の類似性や分類システムのより制御と理解をエンドユーザに提供する、完全に説明可能な、解釈可能なシステムを開発することである。
論文 参考訳(メタデータ) (2023-06-21T13:12:12Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。