論文の概要: Contrastive-mixup learning for improved speaker verification
- arxiv url: http://arxiv.org/abs/2202.10672v1
- Date: Tue, 22 Feb 2022 05:09:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 02:47:49.861435
- Title: Contrastive-mixup learning for improved speaker verification
- Title(参考訳): 話者認証改善のためのコントラスト混合学習
- Authors: Xin Zhang and Minho Jin and Roger Cheng and Ruirui Li and Eunjung Han
and Andreas Stolcke
- Abstract要約: 本稿では,話者検証のためのミックスアップによるプロトタイプ損失の新しい定式化を提案する。
Mixupは、ランダムなデータポイントとラベルペアの重み付けを組み合わせた、シンプルだが効率的なデータ拡張技術である。
- 参考スコア(独自算出の注目度): 17.93491404662201
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper proposes a novel formulation of prototypical loss with mixup for
speaker verification. Mixup is a simple yet efficient data augmentation
technique that fabricates a weighted combination of random data point and label
pairs for deep neural network training. Mixup has attracted increasing
attention due to its ability to improve robustness and generalization of deep
neural networks. Although mixup has shown success in diverse domains, most
applications have centered around closed-set classification tasks. In this
work, we propose contrastive-mixup, a novel augmentation strategy that learns
distinguishing representations based on a distance metric. During training,
mixup operations generate convex interpolations of both inputs and virtual
labels. Moreover, we have reformulated the prototypical loss function such that
mixup is enabled on metric learning objectives. To demonstrate its
generalization given limited training data, we conduct experiments by varying
the number of available utterances from each speaker in the VoxCeleb database.
Experimental results show that applying contrastive-mixup outperforms the
existing baseline, reducing error rate by 16% relatively, especially when the
number of training utterances per speaker is limited.
- Abstract(参考訳): 本稿では,話者検証のためのミックスアップによるプロトタイプ損失の新しい定式化を提案する。
Mixupは、深層ニューラルネットワークトレーニングのためのランダムデータポイントとラベルペアの重み付けを組み合わせた、シンプルだが効率的なデータ拡張技術である。
ディープニューラルネットワークの堅牢性と一般化を改善する能力によって、Mixupは注目を集めている。
mixupはさまざまなドメインで成功を収めているが、ほとんどのアプリケーションはクローズドセットの分類タスクを中心にしている。
本研究では,距離メトリックに基づく表現の識別を学習する新しい拡張戦略であるコントラスト・ミックスアップを提案する。
トレーニング中、ミックスアップ操作は入力と仮想ラベルの両方の凸補間を生成する。
さらに,計量学習目的のミックスアップを可能にするように,原型的損失関数を再構成した。
限られた訓練データに対する一般化を示すため,VoxCelebデータベース内の各話者から利用可能な発話数を変化させて実験を行う。
実験結果から, コントラッシブ・ミックスアップは既存のベースラインよりも優れており, 特に話者当たりの訓練発話数が少ない場合, 誤差率を16%削減することがわかった。
関連論文リスト
- Single-channel speech enhancement using learnable loss mixup [23.434378634735676]
一般化は、単一チャンネル音声強調の教師あり学習において依然として大きな問題である。
深層学習に基づく音声強調モデルの一般化を改善するため,学習可能損失混合(LLM)を提案する。
VCTKベンチマークによる実験結果から,学習可能な損失混入3.26 PESQは最先端に優れることがわかった。
論文 参考訳(メタデータ) (2023-12-20T00:25:55Z) - DASA: Difficulty-Aware Semantic Augmentation for Speaker Verification [55.306583814017046]
本稿では,話者認証のための難易度認識型セマンティック拡張(DASA)手法を提案する。
DASAは、話者埋め込み空間における多様なトレーニングサンプルを、無視できる余分な計算コストで生成する。
最も良い結果は、CN-Celeb評価セット上でのEER測定値の14.6%の相対的な減少を達成する。
論文 参考訳(メタデータ) (2023-10-18T17:07:05Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - MixAugment & Mixup: Augmentation Methods for Facial Expression
Recognition [4.273075747204267]
我々はMixAugmentと呼ばれるMixupに基づく新しいデータ拡張戦略を提案する。
本研究は、MixAugment over Mixupおよび様々な最先端手法の有効性を実証する広範囲な実験的研究を行う。
論文 参考訳(メタデータ) (2022-05-09T17:43:08Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Co-Mixup: Saliency Guided Joint Mixup with Supermodular Diversity [15.780905917870427]
バッチ混成データに対する新たな視点を提案し, バッチ混成データの最適構築を定式化する。
また,各ミニバッチ毎に効率的な混合を行うために,効率的なモジュール近似に基づく反復的部分モジュラー計算アルゴリズムを提案する。
実験により, 提案手法は, 技術一般化, キャリブレーション, および弱教師付き局所化結果の状態を達成できることを示した。
論文 参考訳(メタデータ) (2021-02-05T09:12:02Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z) - Puzzle Mix: Exploiting Saliency and Local Statistics for Optimal Mixup [19.680580983094323]
Puzzle Mixは、サリエンシ情報と自然事例の基盤となる統計を明示的に活用するための混合手法である。
実験の結果,Puzzle Mixはアートの一般化と対向ロバスト性を実現していることがわかった。
論文 参考訳(メタデータ) (2020-09-15T10:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。