論文の概要: Comparing the Accuracy of Deep Neural Networks (DNN) and Convolutional
Neural Network (CNN) in Music Genre Recognition (MGR): Experiments on Kurdish
Music
- arxiv url: http://arxiv.org/abs/2111.11063v1
- Date: Mon, 22 Nov 2021 09:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 23:12:54.949295
- Title: Comparing the Accuracy of Deep Neural Networks (DNN) and Convolutional
Neural Network (CNN) in Music Genre Recognition (MGR): Experiments on Kurdish
Music
- Title(参考訳): 音楽ジャンル認識(MGR)におけるディープニューラルネットワーク(DNN)と畳み込みニューラルネットワーク(CNN)の精度の比較 : クルド音楽実験
- Authors: Aza Zuhair and Hossein Hassani
- Abstract要約: 8種類のクルド音楽ジャンルの880のサンプルを含むデータセットを開発した。
我々は、Deep Neural Network(DNN)とConvolutional Neural Network(CNN)の2つの機械学習アプローチを評価し、そのジャンルを認識した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Musicologists use various labels to classify similar music styles under a
shared title. But, non-specialists may categorize music differently. That could
be through finding patterns in harmony, instruments, and form of the music.
People usually identify a music genre solely by listening, but now computers
and Artificial Intelligence (AI) can automate this process. The work on
applying AI in the classification of types of music has been growing recently,
but there is no evidence of such research on the Kurdish music genres. In this
research, we developed a dataset that contains 880 samples from eight different
Kurdish music genres. We evaluated two machine learning approaches, a Deep
Neural Network (DNN) and a Convolutional Neural Network (CNN), to recognize the
genres. The results showed that the CNN model outperformed the DNN by achieving
92% versus 90% accuracy.
- Abstract(参考訳): 音楽学者は様々なレーベルを使って類似の音楽スタイルを共通のタイトルで分類している。
しかし、非専門家は音楽を分類することがある。
それは、ハーモニー、楽器、そして音楽の形態のパターンを見つけることで実現される。
人々は音楽を聴くだけでジャンルを識別するが、コンピュータと人工知能(ai)はこのプロセスを自動化できる。
音楽の種類分類にAIを適用する研究は近年増えているが、クルド音楽のジャンルに関する研究の証拠はない。
本研究では8種類のクルド音楽ジャンルから880のサンプルを含むデータセットを開発した。
我々は、Deep Neural Network(DNN)とConvolutional Neural Network(CNN)の2つの機械学習アプローチを評価し、そのジャンルを認識した。
その結果、CNNモデルは92%と90%の精度でDNNを上回った。
関連論文リスト
- Audio Processing using Pattern Recognition for Music Genre Classification [0.0]
本研究は,GTZANデータセットを用いた音楽ジャンル分類における機械学習手法の適用について検討する。
パーソナライズされた音楽レコメンデーションの需要が高まる中、私たちは、ブルース、クラシック、ジャズ、ヒップホップ、カントリーという5つのジャンルの分類に注力しました。
ANNモデルは最高の性能を示し、検証精度は92.44%に達した。
論文 参考訳(メタデータ) (2024-10-19T05:44:05Z) - Between the AI and Me: Analysing Listeners' Perspectives on AI- and Human-Composed Progressive Metal Music [1.2874569408514918]
我々は,ロックミュージックをコントロールグループとして利用し,AIと人為的に生成するプログレッシブメタルに対する参加者の視点を探る。
本稿では,世代タイプ(人間対AI),ジャンル(プログレッシブメタル対ロック),キュレーションプロセス(ランダム対チェリーピック)の効果を評価するための混合手法を提案する。
本研究は,AI音楽生成におけるジャンル別特化を実現するために,ファインチューニングを用いたことを検証する。
人間の音楽に類似した評価を受けるAI生成の抜粋はいくつかあったが、聴取者は人間の作曲を好んだ。
論文 参考訳(メタデータ) (2024-07-31T14:03:45Z) - Fairness Through Domain Awareness: Mitigating Popularity Bias For Music
Discovery [56.77435520571752]
音楽発見と人気バイアスの本質的な関係について検討する。
本稿では,グラフニューラルネットワーク(GNN)に基づくレコメンデータシステムにおいて,人気バイアスに対処する,ドメイン対応の個別フェアネスに基づくアプローチを提案する。
我々のアプローチでは、個々の公正さを用いて、真実を聴く経験、すなわち2つの歌が似ているとすると、この類似性は彼らの表現に反映されるべきである。
論文 参考訳(メタデータ) (2023-08-28T14:12:25Z) - Exploring how a Generative AI interprets music [0.0]
GoogleのMusicVAEは512次元のラテントスペースを備えた変分自動エンコーダで、いくつかの音楽バーを表現しています。
平均して、ほとんどの潜伏ニューロンは、本物の音楽トラックを流すと静かであることに気付きます。
メロディの概念は、音楽の長いシーケンスのために独立したニューロンにのみ現れるように思われる。
論文 参考訳(メタデータ) (2023-07-31T15:35:32Z) - Context-Based Music Recommendation Algorithm Evaluation [0.0]
本稿では,ユーザが曲を好むかどうかを予測するための6つの機械学習アルゴリズムとその個々の精度について検討する。
探索されたアルゴリズムには、ロジスティック回帰、ネイブベイズ、シークエンシャル最小最適化(SMO)、マルチレイヤーパーセプトロン(ニューラルネットワーク)、Nearest Neighbor、ランダムフォレストなどがある。
Spotify APIによって提供される各曲の特徴を分析することで、Random Forestはユーザーが84%の精度で曲を好むかどうかを予測する最も成功したアルゴリズムである。
論文 参考訳(メタデータ) (2021-12-16T01:46:36Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Exploring the Common Principal Subspace of Deep Features in Neural
Networks [50.37178960258464]
我々は、同じデータセットでトレーニングされた異なるディープニューラルネットワーク(DNN)が、潜在空間において共通の主部分空間を共有することを発見した。
具体的には、DNNで学んだ深い機能の主部分空間を表すために、$mathcalP$-vectorを新たに設計する。
異なるアルゴリズム/アーキテクチャで訓練された2つのDNNの比較では、小さな角度(コサインが1.0ドルに近い)が見つかっている。
論文 参考訳(メタデータ) (2021-10-06T15:48:32Z) - Neural Network architectures to classify emotions in Indian Classical
Music [0.0]
JUMusEmoDBと呼ばれる新しいデータセットは、現在400のオーディオクリップ(それぞれ30秒)を持っている。
教師付き分類のために、我々は既存の4つの深層畳み込みニューラルネットワーク(CNN)ベースのアーキテクチャを使用した。
インド古典音楽の豊富なコーパスを用いたCNNに基づく分類アルゴリズムは,グローバルな視点においても独特である。
論文 参考訳(メタデータ) (2021-02-01T03:41:25Z) - Artificial Musical Intelligence: A Survey [51.477064918121336]
音楽は、機械学習と人工知能研究の領域としてますます広まりつつある。
この記事では、音楽知能の定義を提供し、その構成成分の分類を導入し、その追求に耐えうる幅広いAI手法を調査します。
論文 参考訳(メタデータ) (2020-06-17T04:46:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。