論文の概要: DDSC: Dynamic Dual-Signal Curriculum for Data-Efficient Acoustic Scene Classification under Domain Shift
- arxiv url: http://arxiv.org/abs/2510.17345v1
- Date: Mon, 20 Oct 2025 09:43:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.385839
- Title: DDSC: Dynamic Dual-Signal Curriculum for Data-Efficient Acoustic Scene Classification under Domain Shift
- Title(参考訳): DDSC:ドメインシフトに基づくデータ効率の良い音響シーン分類のための動的デュアル信号カリキュラム
- Authors: Peihong Zhang, Yuxuan Liu, Rui Sang, Zhixin Li, Yiqiang Cai, Yizhou Tan, Shengchen Li,
- Abstract要約: 音響シーン分類(ASC)は、特にラベルが限られている場合に、デバイスによって引き起こされるドメインシフトに悩まされる。
これまでの作業はカリキュラムベースのトレーニングスケジュールに重点を置いており、学習を容易にするためにトレーニングサンプルの順序付けや重み付けによってデータ提示を構造化している。
本稿では,各エポックで計算された2つの信号を組み合わせることで,カリキュラムをオンラインに適応させるトレーニングスケジュールである動的デュアル署名カリキュラム(DDSC)を提案する。
- 参考スコア(独自算出の注目度): 12.42019711058722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Acoustic scene classification (ASC) suffers from device-induced domain shift, especially when labels are limited. Prior work focuses on curriculum-based training schedules that structure data presentation by ordering or reweighting training examples from easy-to-hard to facilitate learning; however, existing curricula are static, fixing the ordering or the weights before training and ignoring that example difficulty and marginal utility evolve with the learned representation. To overcome this limitation, we propose the Dynamic Dual-Signal Curriculum (DDSC), a training schedule that adapts the curriculum online by combining two signals computed each epoch: a domain-invariance signal and a learning-progress signal. A time-varying scheduler fuses these signals into per-example weights that prioritize domain-invariant examples in early epochs and progressively emphasize device-specific cases. DDSC is lightweight, architecture-agnostic, and introduces no additional inference overhead. Under the official DCASE 2024 Task~1 protocol, DDSC consistently improves cross-device performance across diverse ASC baselines and label budgets, with the largest gains on unseen-device splits.
- Abstract(参考訳): 音響シーン分類(ASC)は、特にラベルが限られている場合に、デバイスによって引き起こされるドメインシフトに悩まされる。
しかし、既存のカリキュラムは静的であり、トレーニングの前に順序や重みを固定し、そのサンプルの難しさを無視し、学習表現とともに限界効用が進化する。
この制限を克服するために,ドメイン不変信号と学習プログレス信号の2つの信号を組み合わせることで,カリキュラムをオンラインに適応させるトレーニングスケジュールであるDSC(Dynamic Dual-Signal Curriculum)を提案する。
時間変化スケジューラは、これらの信号を例ごとの重みに融合し、初期のエポックにおけるドメイン不変例を優先し、デバイス固有のケースを徐々に強調する。
DDSCは軽量でアーキテクチャに依存しないため、追加の推論オーバーヘッドは発生しない。
公式のDCASE 2024 Task~1 プロトコルでは、DDSC は様々な ASC のベースラインとラベルの予算をまたいだクロスデバイス性能を継続的に改善し、非デバイススプリットで最大の利益を上げている。
関連論文リスト
- NeuroTTT: Bridging Pretraining-Downstream Task Misalignment in EEG Foundation Models via Test-Time Training [6.030518150035875]
本稿では,脳波基礎モデルのための2段階アライメント戦略を提案する。
まず,ドメイン固有の自己教師型微調整パラダイムであるNeuroTTTを提案する。
第2に、未ラベルのテストサンプルの自己教師型テストタイムトレーニングを行う。
我々のアプローチは、大規模なEEG基盤モデルにおけるテストタイムトレーニングとドメインチューニングされたセルフスーパービジョンを統合する最初の方法です。
論文 参考訳(メタデータ) (2025-09-30T14:14:46Z) - An Entropy-Guided Curriculum Learning Strategy for Data-Efficient Acoustic Scene Classification under Domain Shift [12.42019711058722]
音響シーン分類(ASC)は、録音装置全体にわたる一般化の課題に直面している。
DCASE 2024 Challenge Task 1は、いくつかのデバイスで記録された小さなラベル付きサブセットからモデルを学ぶことを要求することで、この問題を強調している。
データ効率のよいASCにおける領域シフト問題に対処するエントロピー誘導型カリキュラム学習戦略を提案する。
論文 参考訳(メタデータ) (2025-09-14T09:01:52Z) - SL-ACC: A Communication-Efficient Split Learning Framework with Adaptive Channel-wise Compression [25.47831071744755]
Split Learning(SL)は、エッジデバイスからサーバへの一次コンピューティング負荷をオフロードすることで、有望なソリューションを提供する。
参加する装置の数が増えるにつれて、過度にスマッシュされたデータの送信がSLの大きなボトルネックとなる。
本稿では,2つの鍵成分からなる通信効率の高いSLフレームワークSL-ACCを提案する。
論文 参考訳(メタデータ) (2025-08-18T15:02:10Z) - PSDNorm: Test-Time Temporal Normalization for Deep Learning in Sleep Staging [63.05435596565677]
我々は,モンジュマッピングと時間文脈を利用したPSDNormを提案し,信号の深層学習モデルにおける特徴写像の正規化を行う。
PSDNormは、BatchNormよりも4倍のデータ効率が高く、目に見えない左のデータセットで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-06T16:20:25Z) - Optimizing against Infeasible Inclusions from Data for Semantic Segmentation through Morphology [58.17907376475596]
最先端セマンティックセグメンテーションモデルは通常、データ駆動方式で最適化される。
InSeInは、手元に設定されたセグメンテーショントレーニングから空間クラス関係を規定する明示的な包含制約を抽出する。
そして、予測可能性を促進するために、トレーニング中にこれらの制約の違反を罰する形態的だが差別的な損失を強制する。
論文 参考訳(メタデータ) (2024-08-26T22:39:08Z) - Scaling Multimodal Pre-Training via Cross-Modality Gradient
Harmonization [68.49738668084693]
自己教師付き事前学習は、最近、大規模マルチモーダルデータで成功している。
クロスモダリティアライメント(CMA)は、弱くノイズの多い監視である。
CMAは、モダリティ間の衝突や偏見を引き起こす可能性がある。
論文 参考訳(メタデータ) (2022-11-03T18:12:32Z) - Improving GANs with A Dynamic Discriminator [106.54552336711997]
我々は、オンザフライで調整可能な判別器は、そのような時間変化に適応できると論じる。
総合的な実証研究により、提案したトレーニング戦略がDynamicDと呼ばれ、追加のコストやトレーニング目標を発生させることなく、合成性能を向上させることが確認された。
論文 参考訳(メタデータ) (2022-09-20T17:57:33Z) - Consecutive Pretraining: A Knowledge Transfer Learning Strategy with
Relevant Unlabeled Data for Remote Sensing Domain [25.84756140221655]
自然言語処理(NLP)における事前学習を停止しないという考え方に基づいて,CSPT(ConSecutive PreTraining)を提案する。
提案したCSPTは、タスク対応モデルトレーニングのためのラベルなしデータの巨大な可能性を公開することもできる。
その結果,提案したCSPTをタスク認識モデルトレーニングに活用することにより,従来の教師付きプレトレーニング-then-fine-tuning法よりもRTDのダウンストリームタスクのほとんどを上回り得ることがわかった。
論文 参考訳(メタデータ) (2022-07-08T12:32:09Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model Training and Inference [86.03382625531951]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。