論文の概要: Masked Proxy Loss For Text-Independent Speaker Verification
- arxiv url: http://arxiv.org/abs/2011.04491v2
- Date: Fri, 25 Jun 2021 03:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 02:02:57.543029
- Title: Masked Proxy Loss For Text-Independent Speaker Verification
- Title(参考訳): Masked Proxy Loss for Text-Independent Speaker Verification (英語)
- Authors: Jiachen Lian, Aiswarya Vinod Kumar, Hira Dhamyal, Bhiksha Raj, Rita
Singh
- Abstract要約: 本稿では、プロキシベースの関係とペアベースの関係を直接組み込んだMasked Proxy(MP)損失を提案する。
さらに、話者対の硬さを活用するために、MMP損失(Multinomial Masked Proxy)を提案する。
- 参考スコア(独自算出の注目度): 27.417484680749784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-set speaker recognition can be regarded as a metric learning problem,
which is to maximize inter-class variance and minimize intra-class variance.
Supervised metric learning can be categorized into entity-based learning and
proxy-based learning. Most of the existing metric learning objectives like
Contrastive, Triplet, Prototypical, GE2E, etc all belong to the former
division, the performance of which is either highly dependent on sample mining
strategy or restricted by insufficient label information in the mini-batch.
Proxy-based losses mitigate both shortcomings, however, fine-grained
connections among entities are either not or indirectly leveraged. This paper
proposes a Masked Proxy (MP) loss which directly incorporates both proxy-based
relationships and pair-based relationships. We further propose Multinomial
Masked Proxy (MMP) loss to leverage the hardness of speaker pairs. These
methods have been applied to evaluate on VoxCeleb test set and reach
state-of-the-art Equal Error Rate(EER).
- Abstract(参考訳): オープンセット話者認識は,クラス間分散を最大化し,クラス内分散を最小化する,メートル法学習問題とみなすことができる。
教師付きメトリック学習は、エンティティベースの学習とプロキシベースの学習に分類できる。
contrastive、triplet、prototypical、ge2eなど、既存のメトリック学習の目標のほとんどは、前者の区分に属しており、そのパフォーマンスはサンプルマイニング戦略に大きく依存するか、ミニバッチのラベル情報に制限されている。
プロキシベースの損失は、どちらの欠点も軽減するが、エンティティ間のきめ細かい接続は、そうでないか間接的に活用される。
本稿では、プロキシベースの関係とペアベースの関係を直接組み込んだMasked Proxy(MP)損失を提案する。
さらに,話者対の難易度を活用するために,マルチノマルマスクドプロキシ(mmp)損失を提案する。
これらの手法はVoxCelebテストセットの評価に応用され、最先端のEER(Equal Error Rate)に達する。
関連論文リスト
- Deep Metric Learning with Soft Orthogonal Proxies [1.823505080809275]
本稿では,プロキシにソフト直交性(SO)制約を導入する新しいアプローチを提案する。
提案手法では,DMLの目的と合わせて,画像からコンテキスト特徴を抽出するエンコーダとして,データ効率の良い画像変換器(DeiT)を利用する。
提案手法が最先端手法よりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:22:15Z) - Robust Calibrate Proxy Loss for Deep Metric Learning [6.784952050036532]
本稿では、実際のサンプル情報を用いて、プロキシベースの損失の類似性計算を改善するCalibrate Proxy構造を提案する。
提案手法は,正規データセットと雑音データセットの両方において,一般的に使用されるプロキシベース損失の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2023-04-06T02:43:10Z) - On Medians of (Randomized) Pairwise Means [8.497456090408084]
Lugosi & Mendelsonで最近導入されたトーナメント手順は、機械学習における経験的リスク最小化の原則に代わる魅力的な代替手段を提供する。
本稿では,このアプローチを拡張して,他の学習問題に対処する。
論文 参考訳(メタデータ) (2022-11-01T17:18:15Z) - ADPS: Asymmetric Distillation Post-Segmentation for Image Anomaly
Detection [75.68023968735523]
知識蒸留に基づく異常検出 (KDAD) 法は, 異常領域を検出し, セグメント化するために, 教師学生のパラダイムに頼っている。
非対称蒸留ポストセグメンテーション(ADPS)と呼ばれる革新的なアプローチを提案する。
我々のADPSは、教師-学生ネットワークの入力と同じイメージの異なる形態の非対称蒸留パラダイムを採用している。
ADPSは,MVTec ADとKolektorSDD2データセットで平均精度(AP)を9%,20%向上させることを示した。
論文 参考訳(メタデータ) (2022-10-19T12:04:47Z) - A Non-isotropic Probabilistic Take on Proxy-based Deep Metric Learning [49.999268109518255]
プロキシベースのDeep Metric Learningは、クラス代表者(プロキシ)に画像を埋め込むことで学習する
さらに、プロキシベースのDMLは、クラス内部構造を学ぶのに苦労している。
両問題に対処するために,非等方的確率的プロキシベースDMLを導入する。
論文 参考訳(メタデータ) (2022-07-08T09:34:57Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - Proxy Synthesis: Learning with Synthetic Classes for Deep Metric
Learning [13.252164137961332]
深層メトリック学習におけるより強固な一般化のために,合成クラスを活用したプロキシ合成と呼ばれる単純な正規化器を提案する。
提案手法は合成クラスとして動作する合成埋め込みとプロキシを生成し,プロキシベースの損失を計算する際に未知のクラスを模倣する。
本手法はsoftmaxとその変種を含む任意のプロキシベース損失に適用可能である。
論文 参考訳(メタデータ) (2021-03-29T09:39:07Z) - Fewer is More: A Deep Graph Metric Learning Perspective Using Fewer
Proxies [65.92826041406802]
本稿では,グラフ分類の観点から,プロキシベースのディープグラフメトリックラーニング手法を提案する。
複数のグローバルプロキシを利用して、各クラスの元のデータポイントを総括的に近似する。
本研究では, 近接関係を接地トラス・ラベルに従って調整する, 新たな逆ラベル伝搬アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-26T14:52:42Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Proxy Anchor Loss for Deep Metric Learning [47.832107446521626]
我々は、ペアとプロキシの両方の手法の利点を生かし、それらの制限を克服する新しいプロキシベースの損失を示す。
プロキシの使用により、私たちの損失は収束の速度を加速し、ノイズの多いラベルや外れ値に対して堅牢です。
提案手法は、4つの公開ベンチマークで評価され、損失をトレーニングした標準ネットワークは最先端の性能を達成し、最も高速に収束する。
論文 参考訳(メタデータ) (2020-03-31T02:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。