論文の概要: Cluster-Guided Unsupervised Domain Adaptation for Deep Speaker Embedding
- arxiv url: http://arxiv.org/abs/2303.15944v1
- Date: Tue, 28 Mar 2023 12:58:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 15:19:25.166508
- Title: Cluster-Guided Unsupervised Domain Adaptation for Deep Speaker Embedding
- Title(参考訳): クラスタ型非教師付きドメイン適応によるディープスピーカー埋め込み
- Authors: Haiquan Mao, Feng Hong, Man-wai Mak
- Abstract要約: 本稿では,話者埋め込みネットワークをトレーニングするために,クラスタリングにより対象ドメインデータをラベル付けするクラスタ誘導型UDAフレームワークを提案する。
提案手法は,対象領域のラベルを使わずに,CN-Celeb1評価セットに対して8.10%の誤差率(EER)が得られることを示す。
- 参考スコア(独自算出の注目度): 19.107996394448623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown that pseudo labels can contribute to unsupervised
domain adaptation (UDA) for speaker verification. Inspired by the self-training
strategies that use an existing classifier to label the unlabeled data for
retraining, we propose a cluster-guided UDA framework that labels the target
domain data by clustering and combines the labeled source domain data and
pseudo-labeled target domain data to train a speaker embedding network. To
improve the cluster quality, we train a speaker embedding network dedicated for
clustering by minimizing the contrastive center loss. The goal is to reduce the
distance between an embedding and its assigned cluster center while enlarging
the distance between the embedding and the other cluster centers. Using
VoxCeleb2 as the source domain and CN-Celeb1 as the target domain, we
demonstrate that the proposed method can achieve an equal error rate (EER) of
8.10% on the CN-Celeb1 evaluation set without using any labels from the target
domain. This result outperforms the supervised baseline by 39.6% and is the
state-of-the-art UDA performance on this corpus.
- Abstract(参考訳): 近年の研究では、擬似ラベルが話者認証のための教師なしドメイン適応(UDA)に寄与することが示されている。
既存の分類器を使ってラベルなしデータをラベル付けして再トレーニングするセルフトレーニング戦略に触発されて、ターゲットドメインデータをクラスタリングしてラベル付けし、ラベル付きソースドメインデータと擬似ラベル付きターゲットドメインデータを組み合わせて、話者埋め込みネットワークをトレーニングするクラスタ誘導型udaフレームワークを提案する。
クラスタ品質を向上させるために,クラスタ化専用の話者埋め込みネットワークを,コントラスト的中心損失を最小化することによりトレーニングする。
目標は、埋め込みと割り当てられたクラスタセンターの間の距離を減らし、埋め込みと他のクラスタセンターの間の距離を拡大することである。
提案手法は,ソースドメインとしてVoxCeleb2,ターゲットドメインとしてCN-Celeb1を用いて,対象ドメインからのラベルを使わずに,CN-Celeb1評価セット上で8.10%の誤差率(EER)が得られることを示す。
この結果、教師付きベースラインを39.6%上回り、このコーパスにおける最先端のUDAパフォーマンスである。
関連論文リスト
- Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - Unsupervised Domain Adaptation via Distilled Discriminative Clustering [45.39542287480395]
対象データの識別クラスタリングとしてドメイン適応問題を再検討する。
本稿では,ラベル付き情報源データよりも並列に教師付き学習目標を用いて,ネットワークを協調的に訓練することを提案する。
5つの人気のあるベンチマークデータセットに対して、慎重にアブレーション研究と広範な実験を行う。
論文 参考訳(メタデータ) (2023-02-23T13:03:48Z) - Polycentric Clustering and Structural Regularization for Source-free
Unsupervised Domain Adaptation [20.952542421577487]
Source-Free Domain Adaptation (SFDA)は、訓練済みのソースモデルから学習した知識を未確認のターゲットドメインに転送することで、ドメイン適応問題を解決することを目的としている。
既存のほとんどのメソッドは、機能プロトタイプを生成することによって、ターゲットデータに擬似ラベルを割り当てる。
本稿では,PCSRと命名された新しいフレームワークを,クラス内多中心クラスタリングおよび構造規則化戦略を通じてSFDAに取り組むために提案する。
論文 参考訳(メタデータ) (2022-10-14T02:20:48Z) - Cycle Label-Consistent Networks for Unsupervised Domain Adaptation [57.29464116557734]
ドメイン適応は、ラベル付きソースドメインを活用して、異なる分布を持つラベル付きターゲットドメインの分類子を学ぶことを目的としています。
本稿では,分類ラベルのサイクル整合性を利用して,シンプルで効率的な領域適応手法,すなわちCycle Label-Consistent Network (CLCN)を提案する。
MNIST-USPS-SVHN, Office-31, Office-Home, Image CLEF-DAベンチマークに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-05-27T13:09:08Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Cross-Domain Adaptive Clustering for Semi-Supervised Domain Adaptation [85.6961770631173]
半監視されたドメイン適応では、残りのターゲットサンプルのターゲットドメインガイド機能内のクラスごとのいくつかのラベル付きサンプルが、その周辺に集約される。
この問題に対処するために,クロスドメイン適応クラスタリングという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-19T16:07:32Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Domain Adaptation with Auxiliary Target Domain-Oriented Classifier [115.39091109079622]
ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2020-07-08T15:01:35Z) - Inductive Unsupervised Domain Adaptation for Few-Shot Classification via
Clustering [16.39667909141402]
ショットの分類は、多様なドメインに適応する必要がある場合、苦労する傾向があります。
本稿では、ClusteringによるFew-shot分類のためのドメイン適応性能を改善するためのフレームワークDaFeCを紹介する。
提案手法は, 絶対利得(分類精度)が4.95%, 9.55%, 3.99%, 11.62%であった。
論文 参考訳(メタデータ) (2020-06-23T08:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。