論文の概要: Dual Knowledge Distillation for Efficient Sound Event Detection
- arxiv url: http://arxiv.org/abs/2402.02781v1
- Date: Mon, 5 Feb 2024 07:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 17:39:09.933492
- Title: Dual Knowledge Distillation for Efficient Sound Event Detection
- Title(参考訳): 音響イベント検出のための二重知識蒸留
- Authors: Yang Xiao, Rohan Kumar Das
- Abstract要約: 音響信号中の特定の音とその時間的位置を認識するには,音事象検出(SED)が不可欠である。
本稿では,効率的なSEDシステムの開発を目的とした,二重知識蒸留と呼ばれる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.236008919003083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sound event detection (SED) is essential for recognizing specific sounds and
their temporal locations within acoustic signals. This becomes challenging
particularly for on-device applications, where computational resources are
limited. To address this issue, we introduce a novel framework referred to as
dual knowledge distillation for developing efficient SED systems in this work.
Our proposed dual knowledge distillation commences with temporal-averaging
knowledge distillation (TAKD), utilizing a mean student model derived from the
temporal averaging of the student model's parameters. This allows the student
model to indirectly learn from a pre-trained teacher model, ensuring a stable
knowledge distillation. Subsequently, we introduce embedding-enhanced feature
distillation (EEFD), which involves incorporating an embedding distillation
layer within the student model to bolster contextual learning. On DCASE 2023
Task 4A public evaluation dataset, our proposed SED system with dual knowledge
distillation having merely one-third of the baseline model's parameters,
demonstrates superior performance in terms of PSDS1 and PSDS2. This highlights
the importance of proposed dual knowledge distillation for compact SED systems,
which can be ideal for edge devices.
- Abstract(参考訳): 音響信号中の特定の音とその時間的位置を認識するには,音事象検出(SED)が不可欠である。
これは特に計算リソースが限られているデバイス上のアプリケーションでは困難になる。
本稿では,本研究で効率的なsedシステムを開発するために,dual knowledge distillationと呼ばれる新しい枠組みを提案する。
提案する二重知識蒸留と時間平均知識蒸留(takd)は,生徒モデルのパラメータの時間平均化から得られた平均学生モデルを用いて行う。
これにより、学生モデルは、訓練済みの教師モデルから間接的に学習することができ、安定した知識蒸留が保証される。
次に, 留学生モデルに埋込蒸留層を組み込んで文脈学習を促進することを含む, 埋込型特徴蒸留(EEFD)を導入する。
基本モデルのパラメータの3分の1しか持たない二重知識蒸留システムであるDCASE 2023 Task 4Aでは,PSDS1とPSDS2で優れた性能を示す。
これは、エッジデバイスに理想的なコンパクトなSEDシステムのための二重知識蒸留の重要性を強調している。
関連論文リスト
- Teaching with Uncertainty: Unleashing the Potential of Knowledge Distillation in Object Detection [47.0507287491627]
本稿では,物体検出のための知識の不確実性を考慮した特徴量に基づく蒸留パラダイムを提案する。
モンテカルロのドロップアウト手法を利用して,学生モデルの学習過程に知識の不確実性を導入する。
本手法は,複雑な構造や計算資源を必要とせずに,KDプロセス中に効果的に機能する。
論文 参考訳(メタデータ) (2024-06-11T06:51:02Z) - Learning to Maximize Mutual Information for Chain-of-Thought Distillation [13.660167848386806]
Distilling Step-by-Step(DSS)は、より大きなモデルよりも優れた推論能力を持つ小さなモデルを投入することで、約束を証明している。
しかし、DSSは2つのトレーニングタスクの本質的な関係を見落とし、CoT知識とラベル予測のタスクの非効率な統合につながる。
学習に基づく手法を用いて,この問題を解決するための変分手法を提案する。
論文 参考訳(メタデータ) (2024-03-05T22:21:45Z) - Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - DETRDistill: A Universal Knowledge Distillation Framework for
DETR-families [11.9748352746424]
トランスフォーマーベースの検出器(DETR)は、訓練パラダイムの疎さと後処理操作の除去により、大きな注目を集めている。
知識蒸留(KD)は、普遍的な教師学習フレームワークを構築することで、巨大なモデルを圧縮するために用いられる。
論文 参考訳(メタデータ) (2022-11-17T13:35:11Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - CMD: Self-supervised 3D Action Representation Learning with Cross-modal
Mutual Distillation [130.08432609780374]
3D行動認識では、骨格のモダリティの間に豊富な相補的な情報が存在する。
本稿では,CMD(Cross-modal Mutual Distillation)フレームワークを提案する。
提案手法は,既存の自己管理手法より優れ,新しい記録を多数設定する。
論文 参考訳(メタデータ) (2022-08-26T06:06:09Z) - ERNIE-Search: Bridging Cross-Encoder with Dual-Encoder via Self
On-the-fly Distillation for Dense Passage Retrieval [54.54667085792404]
両エンコーダのクロスアーキテクチャ蒸留を著しく向上させる新しい蒸留法を提案する。
本手法は,バニラ二重エンコーダへの遅延相互作用(ColBERT)を効果的に蒸留できる自己オンザフライ蒸留法を導入し,また,クロスエンコーダの教師による性能向上のためにカスケード蒸留プロセスを導入している。
論文 参考訳(メタデータ) (2022-05-18T18:05:13Z) - Adaptive Instance Distillation for Object Detection in Autonomous
Driving [3.236217153362305]
本稿では,教師の知識を学生に選択的に付与し,知識蒸留の性能を向上させるための適応型インスタンス蒸留(AID)を提案する。
また,AIDは教師モデルの性能向上に有効であることが示された。
論文 参考訳(メタデータ) (2022-01-26T18:06:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。