論文の概要: Partial Coupling of Optimal Transport for Spoken Language Identification
- arxiv url: http://arxiv.org/abs/2203.17036v1
- Date: Thu, 31 Mar 2022 14:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:41:13.313097
- Title: Partial Coupling of Optimal Transport for Spoken Language Identification
- Title(参考訳): 音声言語識別のための最適輸送の部分結合
- Authors: Xugang Lu, Peng Shen, Yu Tsao, Hisashi Kawai
- Abstract要約: 我々は、最適輸送(OT)に基づく関節分布アライメント(JDA)モデルを提案した。
トレーニングデータセットとテストデータセットの相違点の測定をJDAに導入した。
提案するUDAは, OTの部分結合を考慮した結果, 性能が有意に向上した。
- 参考スコア(独自算出の注目度): 43.81553679050223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to reduce domain discrepancy to improve the performance of
cross-domain spoken language identification (SLID) system, as an unsupervised
domain adaptation (UDA) method, we have proposed a joint distribution alignment
(JDA) model based on optimal transport (OT). A discrepancy measurement based on
OT was adopted for JDA between training and test data sets. In our previous
study, it was supposed that the training and test sets share the same label
space. However, in real applications, the label space of the test set is only a
subset of that of the training set. Fully matching training and test domains
for distribution alignment may introduce negative domain transfer. In this
paper, we propose an JDA model based on partial optimal transport (POT), i.e.,
only partial couplings of OT are allowed during JDA. Moreover, since the label
of test data is unknown, in the POT, a soft weighting on the coupling based on
transport cost is adaptively set during domain alignment. Experiments were
carried out on a cross-domain SLID task to evaluate the proposed UDA. Results
showed that our proposed UDA significantly improved the performance due to the
consideration of the partial couplings in OT.
- Abstract(参考訳): 非教師付きドメイン適応(UDA)手法として,クロスドメイン音声言語識別(SLID)システムの性能向上のために,最適輸送(OT)に基づく共同分散アライメント(JDA)モデルを提案する。
トレーニングデータセットとテストデータセットの相違点の測定をJDAに導入した。
前回の研究では、トレーニングセットとテストセットは同じラベルスペースを共有しているはずでした。
しかし、実際のアプリケーションでは、テストセットのラベル空間はトレーニングセットのそれのサブセットに過ぎない。
分散アライメントのための完全なトレーニングとテストドメインは、負のドメイン転送をもたらす可能性がある。
本稿では,部分最適輸送(POT)に基づくJDAモデルを提案する。
また、テストデータのラベルが不明であるため、POTでは、ドメインアライメント中に、輸送コストに基づく結合に対するソフト重み付けを適応的に設定する。
提案したUDAを評価するために,クロスドメインSLIDタスクで実験を行った。
その結果, OTにおける部分結合を考慮した結果, 提案するUDAの性能は有意に向上した。
関連論文リスト
- Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Exploiting Instance-based Mixed Sampling via Auxiliary Source Domain
Supervision for Domain-adaptive Action Detection [75.38704117155909]
本稿では,新しいドメイン適応型行動検出手法と新しい適応プロトコルを提案する。
クロスドメイン混合サンプリングと組み合わせた自己学習は、UDAコンテキストにおいて顕著なパフォーマンス向上を示した。
我々は提案したフレームワークをドメイン適応アクション・インスタンス・ミックス(DA-AIM)と呼ぶ。
論文 参考訳(メタデータ) (2022-09-28T22:03:25Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Bures Joint Distribution Alignment with Dynamic Margin for Unsupervised
Domain Adaptation [17.06364218327213]
非教師なしドメイン適応(Unsupervised domain adapt, UDA)は、トランスファーラーニングにおける顕著なタスクの1つである。
本稿では,共同分布間のカーネル・ブレス=ヴァッサーシュタイン距離を最小化するアライメント損失項を提案する。
実験により、BJDAは、ほとんどの実験環境で最先端のアルゴリズムよりも優れており、UDAタスクに非常に効果的であることが示された。
論文 参考訳(メタデータ) (2022-03-14T03:20:01Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Adapting Off-the-Shelf Source Segmenter for Target Medical Image
Segmentation [12.703234995718372]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから学習した知識をラベルなしおよび見えないターゲットドメインに転送することを目的としている。
データストレージやプライバシの問題のため、適応段階でのソースドメインデータへのアクセスは制限されることが多い。
我々は、ソースドメインで事前訓練されたオフザシェルフセグメントモデルをターゲットドメインに適用することを提案する。
論文 参考訳(メタデータ) (2021-06-23T16:16:55Z) - UDALM: Unsupervised Domain Adaptation through Language Modeling [79.73916345178415]
複合分類とマスキング言語モデル損失を用いた微調整手順であるUDALMについて紹介します。
本実験では, 混合損失スケールと利用可能な目標データの量で訓練されたモデルの性能を, 停止基準として有効に用いることを示した。
この方法は、amazon reviewsセンチメントデータセットの12のドメインペアで評価され、9.1.74%の精度が得られ、最先端よりも1.11%の絶対的な改善が得られます。
論文 参考訳(メタデータ) (2021-04-14T19:05:01Z) - Unsupervised neural adaptation model based on optimal transport for
spoken language identification [54.96267179988487]
トレーニングセットとテストセット間の音響音声の統計的分布のミスマッチにより,音声言語識別(SLID)の性能が大幅に低下する可能性がある。
SLIDの分布ミスマッチ問題に対処するために,教師なしニューラル適応モデルを提案する。
論文 参考訳(メタデータ) (2020-12-24T07:37:19Z) - Knowledge Distillation for BERT Unsupervised Domain Adaptation [2.969705152497174]
トレーニング済みの言語モデルであるBERTは、さまざまな自然言語処理タスクで大幅なパフォーマンス向上を実現している。
蒸留による逆順応法(AAD)を提案する。
ドメイン間感情分類におけるアプローチを30組のドメイン対で評価した。
論文 参考訳(メタデータ) (2020-10-22T06:51:24Z) - Adversarial Learning for Zero-shot Domain Adaptation [31.334196673143257]
ゼロショットドメイン適応は、データサンプルもラベルもターゲットドメインでのパラメータ学習には使用できない問題である。
本稿では,非関係なタスクから関心のあるタスクへのドメインシフトを移譲することで,ZSDAの新たな手法を提案する。
提案手法をベンチマークデータセット上で評価し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-09-11T03:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。