論文の概要: DDFAD: Dataset Distillation Framework for Audio Data
- arxiv url: http://arxiv.org/abs/2407.10446v1
- Date: Mon, 15 Jul 2024 05:23:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 16:11:00.093980
- Title: DDFAD: Dataset Distillation Framework for Audio Data
- Title(参考訳): DDFAD:オーディオデータのためのデータセット蒸留フレームワーク
- Authors: Wenbo Jiang, Rui Zhang, Hongwei Li, Xiaoyuan Liu, Haomiao Yang, Shui Yu,
- Abstract要約: ディープニューラルネットワーク(DNN)は多くのアプリケーションで大きな成功を収めている。
ディープニューラルネットワーク(DNN)は多くのアプリケーションで大きな成功を収めている。
- 参考スコア(独自算出の注目度): 16.55650741388241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved significant success in numerous applications. The remarkable performance of DNNs is largely attributed to the availability of massive, high-quality training datasets. However, processing such massive training data requires huge computational and storage resources. Dataset distillation is a promising solution to this problem, offering the capability to compress a large dataset into a smaller distilled dataset. The model trained on the distilled dataset can achieve comparable performance to the model trained on the whole dataset. While dataset distillation has been demonstrated in image data, none have explored dataset distillation for audio data. In this work, for the first time, we propose a Dataset Distillation Framework for Audio Data (DDFAD). Specifically, we first propose the Fused Differential MFCC (FD-MFCC) as extracted features for audio data. After that, the FD-MFCC is distilled through the matching training trajectory distillation method. Finally, we propose an audio signal reconstruction algorithm based on the Griffin-Lim Algorithm to reconstruct the audio signal from the distilled FD-MFCC. Extensive experiments demonstrate the effectiveness of DDFAD on various audio datasets. In addition, we show that DDFAD has promising application prospects in many applications, such as continual learning and neural architecture search.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くのアプリケーションで大きな成功を収めている。
DNNの顕著なパフォーマンスは、大規模で高品質なトレーニングデータセットが利用可能であることによるところが大きい。
しかし、そのような膨大なトレーニングデータを処理するには、膨大な計算資源とストレージ資源が必要である。
データセットの蒸留はこの問題に対する有望な解決策であり、大規模なデータセットをより小さな蒸留データセットに圧縮する機能を提供する。
蒸留データセットでトレーニングされたモデルは、データセット全体でトレーニングされたモデルと同等のパフォーマンスを達成することができる。
データセットの蒸留は画像データで実証されているが、音声データに対するデータセットの蒸留は調査されていない。
本研究では,音声データのためのデータセット蒸留フレームワーク(Dataset Distillation Framework for Audio Data, DDFAD)を提案する。
具体的には、まず、音声データの抽出機能としてFused Differential MFCC(FD-MFCC)を提案する。
その後、FD-MFCCは、一致する訓練軌跡蒸留法により蒸留される。
最後に,Griffin-Limアルゴリズムに基づく音声信号再構成アルゴリズムを提案し,蒸留したFD-MFCCから音声信号を再構成する。
様々なオーディオデータセットに対するDFADの有効性を示す大規模な実験を行った。
さらに,DDFADは連続学習やニューラルアーキテクチャ検索など,多くのアプリケーションにおいて将来性があることを示す。
関連論文リスト
- MDM: Advancing Multi-Domain Distribution Matching for Automatic Modulation Recognition Dataset Synthesis [35.07663680944459]
ディープラーニング技術は、AMR(Automatic Modulation Recognition)タスクにうまく導入されている。
ディープラーニングの成功はすべて、大規模なデータセットのトレーニングによるものだ。
大量のデータの問題を解決するため、一部の研究者はデータ蒸留法を提唱した。
論文 参考訳(メタデータ) (2024-08-05T14:16:54Z) - Importance-Aware Adaptive Dataset Distillation [53.79746115426363]
ディープラーニングモデルの開発は、大規模データセットの可用性によって実現されている。
データセットの蒸留は、大きな元のデータセットから必須情報を保持するコンパクトなデータセットを合成することを目的としている。
本稿では, 蒸留性能を向上する重要適応型データセット蒸留(IADD)法を提案する。
論文 参考訳(メタデータ) (2024-01-29T03:29:39Z) - Data Distillation Can Be Like Vodka: Distilling More Times For Better
Quality [78.6359306550245]
蒸留に1つの合成部分集合を用いるだけでは最適な一般化性能は得られない。
PDDは複数の小さな合成画像集合を合成し、それぞれ前の集合に条件付けし、これらの部分集合の累積和でモデルを訓練する。
実験の結果, PDDは既存のデータセット蒸留法の性能を最大4.3%向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-10-10T20:04:44Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Distill Gold from Massive Ores: Bi-level Data Pruning towards Efficient Dataset Distillation [96.92250565207017]
本研究では,データセット蒸留作業におけるデータ効率と選択について検討する。
蒸留の力学を再現することにより、実際のデータセットに固有の冗長性についての洞察を提供する。
蒸留における因果関係から最も寄与した試料を見出した。
論文 参考訳(メタデータ) (2023-05-28T06:53:41Z) - Dataset Distillation: A Comprehensive Review [76.26276286545284]
データセット蒸留(DD)は、トレーニングされたモデルが元のデータセットでトレーニングされたデータセットに匹敵するパフォーマンスを得るために、合成サンプルを含むはるかに小さなデータセットを導出することを目的としている。
本稿ではDDの最近の進歩とその応用について概説する。
論文 参考訳(メタデータ) (2023-01-17T17:03:28Z) - A Comprehensive Survey of Dataset Distillation [73.15482472726555]
限られた計算能力で無制限に成長するデータを扱うことは困難になっている。
ディープラーニング技術はこの10年で前例のない発展を遂げた。
本稿では,多面的なデータセット蒸留の総合的な理解を提供する。
論文 参考訳(メタデータ) (2023-01-13T15:11:38Z) - Dataset Distillation with Infinitely Wide Convolutional Networks [18.837952916998947]
分散カーネルをベースとしたメタラーニングフレームワークを用いて,データセット蒸留の最先端結果を実現する。
CIFAR-10画像分類タスクでは64%以上のテスト精度が得られた。
我々の現状は、MNIST、Fashion-MNIST、CIFAR-10、CIFAR-100、SVHNの他の多くの設定にも及んでいる。
論文 参考訳(メタデータ) (2021-07-27T18:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。