論文の概要: Combining Contrastive and Non-Contrastive Losses for Fine-Tuning
Pretrained Models in Speech Analysis
- arxiv url: http://arxiv.org/abs/2211.01964v1
- Date: Fri, 21 Oct 2022 19:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 15:07:05.315352
- Title: Combining Contrastive and Non-Contrastive Losses for Fine-Tuning
Pretrained Models in Speech Analysis
- Title(参考訳): 音声分析における微調整事前学習モデルのコントラストと非コントラストの併用
- Authors: Florian Lux, Ching-Yi Chen, Ngoc Thang Vu
- Abstract要約: パラ言語特性を微調整する2段階のアプローチを提案する。
まず、埋め込み空間を改善し、次に、埋め込み空間から分類タスクへのギャップを埋めるアダプタを訓練する。
われわれのアプローチは、複数のタスクのエンドツーエンドで微調整されたベースラインを一貫して上回り、最先端の感情分類のベンチマークを上回ります。
- 参考スコア(独自算出の注目度): 25.707717591185386
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Embedding paralinguistic properties is a challenging task as there are only a
few hours of training data available for domains such as emotional speech. One
solution to this problem is to pretrain a general self-supervised speech
representation model on large amounts of unlabeled speech. This pretrained
model is then finetuned to a specific task. Paralinguistic properties however
have notoriously high class variance, making the finetuning ineffective. In
this work, we propose a two step approach to this. First we improve the
embedding space, then we train an adapter to bridge the gap from the embedding
space to a classification task. In order to improve the class invariance we use
a combination of contrastive and non-contrastive losses to explicitly optimize
for class invariant, yet discriminative features. Our approach consistently
outperforms baselines that are finetuned end-to-end on multiple tasks and
surpasses a benchmark on state-of-the-art emotion classification.
- Abstract(参考訳): 感情的発話のようなドメインで利用可能なトレーニングデータはわずか数時間しかないため、パラ言語特性の埋め込みは難しい課題である。
この問題に対する一つの解決策は、大量のラベルなし音声に対して一般的な自己教師あり音声表現モデルを事前学習することである。
この事前訓練されたモデルは、特定のタスクに微調整される。
しかし、パラ言語特性は高いクラス分散を持つことで知られており、微調整は効果がない。
本稿では,これに対する2段階のアプローチを提案する。
まず、埋め込み空間を改善し、次に、埋め込み空間から分類タスクへのギャップを埋めるためにアダプタをトレーニングします。
クラス不変性を改善するために、クラス不変性を明示的に最適化するために、コントラスト損失と非一貫性損失の組み合わせを使う。
われわれのアプローチは、複数のタスクでエンドツーエンドに調整されたベースラインを一貫して上回り、最先端の感情分類のベンチマークを上回っている。
関連論文リスト
- Task-recency bias strikes back: Adapting covariances in Exemplar-Free Class Incremental Learning [0.3281128493853064]
過去のデータにアクセスせずにタスクのシーケンス上でモデルをトレーニングする問題に対処する。
既存の方法は、特徴抽出器の潜在空間におけるガウス分布としてクラスを表す。
本稿では,タスクからタスクへ共分散行列を適用する新しい手法であるAdaGaussを提案する。
論文 参考訳(メタデータ) (2024-09-26T20:18:14Z) - CCPrefix: Counterfactual Contrastive Prefix-Tuning for Many-Class
Classification [57.62886091828512]
多クラス分類のための新しいプレフィックスチューニング手法であるCCPrefixを提案する。
基本的に、ラベル空間における実数対から派生したインスタンス依存の軟式接頭辞は、多クラス分類における言語動詞化を補完するために利用される。
論文 参考訳(メタデータ) (2022-11-11T03:45:59Z) - Hidden State Variability of Pretrained Language Models Can Guide
Computation Reduction for Transfer Learning [16.60284838029852]
我々は、どのレイヤのサブセットに適応すべきか、タスク固有の選択ができるかどうかを検討する。
本稿では,タスク固有のコーパスを与えられた隠れ状態の可変性に基づいて,階層を選択することを提案する。
論文 参考訳(メタデータ) (2022-10-18T17:58:43Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Sequential Reptile: Inter-Task Gradient Alignment for Multilingual
Learning [61.29879000628815]
知識伝達を最大化するためには,タスク間の勾配の整合が不可欠であることを示す。
本稿では,タスク間の勾配を効率よく調整する,シンプルで効果的な手法を提案する。
様々なマルチタスク学習やゼロショット言語間移動タスクにおいて,提案手法を広範囲に検証する。
論文 参考訳(メタデータ) (2021-10-06T09:10:10Z) - Not All Negatives are Equal: Label-Aware Contrastive Loss for
Fine-grained Text Classification [0.0]
2つの細粒度テキスト分類タスクにおいて、事前訓練された言語モデルの対照的な微調整を解析する。
クラス関係を比較対象関数に適応的に組み込んで、正と負の異なる評価を支援する。
ラベルを意識したContrastive Lossは,従来のコントラスト手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-12T04:19:17Z) - A Differentiable Language Model Adversarial Attack on Text Classifiers [10.658675415759697]
自然言語処理のための新しいブラックボックス文レベルアタックを提案する。
本手法は,事前学習した言語モデルを微調整して,逆例を生成する。
提案手法は, 計算量と人的評価の両方において, 多様なNLP問題において, 競合相手よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-23T14:43:13Z) - Differentiable Language Model Adversarial Attacks on Categorical
Sequence Classifiers [0.0]
敵対的攻撃パラダイムは、ディープラーニングモデルの脆弱性の様々なシナリオを探索する。
本研究では,言語モデルの微調整を,敵対的攻撃のジェネレータとして利用する。
我々のモデルは、銀行取引、電子健康記録、NLPデータセットに関する多様なデータセットに対して機能する。
論文 参考訳(メタデータ) (2020-06-19T11:25:36Z) - TAVAT: Token-Aware Virtual Adversarial Training for Language
Understanding [55.16953347580948]
グラディエントベースの敵トレーニングは、ニューラルネットワークの堅牢性向上に広く利用されている。
埋め込み空間が離散であるため、自然言語処理タスクに容易に適応することはできない。
微粒な摂動を創り出すためのトークン認識仮想アドリアリトレーニング法を提案する。
論文 参考訳(メタデータ) (2020-04-30T02:03:24Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。