論文の概要: Low-complexity deep learning frameworks for acoustic scene
classification using teacher-student scheme and multiple spectrograms
- arxiv url: http://arxiv.org/abs/2305.09463v1
- Date: Tue, 16 May 2023 14:21:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:50:05.645837
- Title: Low-complexity deep learning frameworks for acoustic scene
classification using teacher-student scheme and multiple spectrograms
- Title(参考訳): 教師学生方式とマルチスペクトログラムを用いた音響シーン分類のための低複雑深層学習フレームワーク
- Authors: Lam Pham, Dat Ngo, Cam Le, Anahid Jalali, Alexander Schindler
- Abstract要約: 提案システムは,教師のネットワークを訓練する(Phase I)と,教師の知識を蒸留して学生のネットワークを訓練する(Phase II)の2つの段階から構成される。
DCASE 2023 Task 1 Developmentデータセットで実施した実験は,低複雑さの要求を満たすとともに,57.4%の最高の分類精度を達成した。
- 参考スコア(独自算出の注目度): 59.86658316440461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this technical report, a low-complexity deep learning system for acoustic
scene classification (ASC) is presented. The proposed system comprises two main
phases: (Phase I) Training a teacher network; and (Phase II) training a student
network using distilled knowledge from the teacher. In the first phase, the
teacher, which presents a large footprint model, is trained. After training the
teacher, the embeddings, which are the feature map of the second last layer of
the teacher, are extracted. In the second phase, the student network, which
presents a low complexity model, is trained with the embeddings extracted from
the teacher. Our experiments conducted on DCASE 2023 Task 1 Development dataset
have fulfilled the requirement of low-complexity and achieved the best
classification accuracy of 57.4%, improving DCASE baseline by 14.5%.
- Abstract(参考訳): 本稿では,音響シーン分類(ASC)のための低複雑さ深層学習システムについて述べる。
提案システムは,教師のネットワークを訓練する(Phase I)と,教師の知識を蒸留して学生のネットワークを訓練する(Phase II)の2つの段階から構成される。
第1フェーズでは、大きな足跡モデルを示す教師がトレーニングされます。
教師を訓練した後、教師の第2最終層の特徴マップである埋め込みを抽出する。
第2フェーズでは、複雑性の低いモデルを示す学生ネットワークが、教師から抽出された埋め込みを使って訓練される。
DCASE 2023 Task 1 Developmentデータセットで実施した実験は,低複雑さの要件を満たすとともに,57.4%の分類精度を達成し,DCASEベースラインを14.5%向上させた。
関連論文リスト
- Data Efficient Acoustic Scene Classification using Teacher-Informed Confusing Class Instruction [11.15868814062321]
異なるサイズのトレーニング分割に取り組むために、3つのシステムが導入されている。
小規模なトレーニング分割のために,提案するベースラインモデルの複雑さを低減し,ベースチャネルの数を減少させることを検討した。
より大きなトレーニング分割のために、FocusNetを使用して、複数のPatchout faSt Spectrogram Transformer(PaSST)モデルと、元のサンプリングレート44.1kHzでトレーニングされたベースラインモデルのアンサンブルに、混乱したクラス情報を提供する。
論文 参考訳(メタデータ) (2024-09-18T13:16:00Z) - Distantly-Supervised Named Entity Recognition with Adaptive Teacher
Learning and Fine-grained Student Ensemble [56.705249154629264]
NERモデルの堅牢性を改善するために,自己学習型教員学生フレームワークを提案する。
本稿では,2つの教員ネットワークからなる適応型教員学習を提案する。
微粒な学生アンサンブルは、教師モデルの各フラグメントを、生徒の対応するフラグメントの時間移動平均で更新し、各モデルフラグメントのノイズに対する一貫した予測を強化する。
論文 参考訳(メタデータ) (2022-12-13T12:14:09Z) - Knowledge Distillation Meets Open-Set Semi-Supervised Learning [69.21139647218456]
本研究では,事前学習した教師から対象学生へ,表現的知識を意味的に蒸留する新しいモデル名(bfem shortname)を提案する。
問題レベルでは、これは知識蒸留とオープンセット半教師付き学習(SSL)との興味深い関係を確立する。
我々のショートネームは、粗い物体分類と微妙な顔認識タスクの両方において、最先端の知識蒸留法よりもかなり優れている。
論文 参考訳(メタデータ) (2022-05-13T15:15:27Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - Student Helping Teacher: Teacher Evolution via Self-Knowledge
Distillation [20.17325172100031]
本稿では,教師が構造的バックボーンを共有することで,複数の階層的な学生の助けを借りて学習する,新しい学生ヘルピング・ティーチンガー式,TESKD(Tell-Helping-Teacher Evolution)を提案する。
提案手法の有効性は,CIFAR-100 と ImageNet の2つの標準ベンチマークにおいて,様々なネットワーク設定による広範な実験により実証された。
論文 参考訳(メタデータ) (2021-10-01T11:46:12Z) - On the Efficiency of Subclass Knowledge Distillation in Classification
Tasks [33.1278647424578]
サブクラス知識蒸留 (Subclass Knowledge Distillation, SKD) フレームワークは、サブクラスの予測知識を大きな教師モデルからより小さな学生モデルに転送するプロセスである。
このフレームワークは臨床応用、すなわち大腸ポリープバイナリー分類で評価される。
提案されたフレームワークで訓練された軽量で低複雑性の学生は、85.05%のF1スコアを獲得し、2.14%と1.49%のアップを得た。
論文 参考訳(メタデータ) (2021-09-12T19:04:44Z) - Distilling EEG Representations via Capsules for Affective Computing [14.67085109524245]
カプセル型アーキテクチャを用いて脳波表現を蒸留する新しい知識蒸留パイプラインを提案する。
本フレームワークは,教師から効果的に学習できる圧縮率の異なる学生ネットワークを実現する。
この手法は2つのデータセットのうちの1つで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-04-30T22:04:35Z) - Differentiable Feature Aggregation Search for Knowledge Distillation [47.94874193183427]
単教師蒸留フレームワークにおける多教師蒸留を模倣する特徴集約について紹介する。
DFAは、ニューラルネットワーク探索においてDARTSによって動機付けられた2段階の微分可能特徴集合探索法である。
実験の結果,DFAはCIFAR-100およびCINIC-10データセットの既存手法よりも優れていた。
論文 参考訳(メタデータ) (2020-08-02T15:42:29Z) - Device-Robust Acoustic Scene Classification Based on Two-Stage
Categorization and Data Augmentation [63.98724740606457]
我々は,GT,USTC,Tencent,UKEの4つのグループからなる共同で,DCASE 2020 Challengeの第1タスク - 音響シーン分類(ASC)に取り組む。
タスク1aは、複数の(実とシミュレートされた)デバイスで記録されたオーディオ信号のASCを10種類の微細なクラスにフォーカスする。
Task 1bは、低複雑さのソリューションを使用して、データを3つの上位クラスに分類することに関心がある。
論文 参考訳(メタデータ) (2020-07-16T15:07:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。