論文の概要: Domain Adapting Speech Emotion Recognition modals to real-world scenario
with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2207.12248v1
- Date: Thu, 7 Jul 2022 02:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-31 14:49:34.643887
- Title: Domain Adapting Speech Emotion Recognition modals to real-world scenario
with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習による実世界シナリオへの音声感情認識モーダルの適用
- Authors: Thejan Rajapakshe, Rajib Rana, Sara Khalifa
- Abstract要約: ドメイン適応により、トレーニングのフェーズ後に、モデルによって学習された知識をドメイン間で転送することができる。
より新しいドメインに事前学習モデルを適用するための深層強化学習に基づく戦略を提案する。
- 参考スコア(独自算出の注目度): 5.40755576668989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning has been a popular training paradigm as deep
learning has gained popularity in the field of machine learning. Domain
adaptation allows us to transfer knowledge learnt by a model across domains
after a phase of training. The inability to adapt an existing model to a
real-world domain is one of the shortcomings of current domain adaptation
algorithms. We present a deep reinforcement learning-based strategy for
adapting a pre-trained model to a newer domain while interacting with the
environment and collecting continual feedback. This method was used on the
Speech Emotion Recognition task, which included both cross-corpus and
cross-language domain adaption schema. Furthermore, it demonstrates that in a
real-world environment, our approach outperforms the supervised learning
strategy by 42% and 20% in cross-corpus and cross-language schema,
respectively.
- Abstract(参考訳): ディープラーニングは機械学習の分野で人気を集めており、深層強化学習は人気のある訓練パラダイムである。
ドメイン適応により、トレーニングのフェーズ後にドメイン間でモデルによって学習された知識を転送することができる。
既存のモデルを現実世界のドメインに適応できないことは、現在のドメイン適応アルゴリズムの欠点の1つです。
環境と対話し、継続的なフィードバックを収集しながら、事前学習したモデルを新しいドメインに適応するための、深い強化学習に基づく戦略を提案する。
この方法は、クロスコーパスとクロス言語ドメイン適応スキーマの両方を含む音声感情認識タスクで使用された。
さらに,本手法は実環境において,クロスコーパスとクロス言語スキーマにおいて,教師あり学習戦略を42%,20%向上させることを示した。
関連論文リスト
- Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Adapt in Contexts: Retrieval-Augmented Domain Adaptation via In-Context
Learning [48.22913073217633]
大規模言語モデル(LLM)は、インコンテキスト学習(in-context learning)として知られる少数の推論でその能力を示した。
本稿では,UDA問題を文脈内学習環境下で研究し,ソースドメインからターゲットドメインへの言語モデルの適用を,ターゲットラベルを使わずに行う。
我々は、異なるLMアーキテクチャを考慮し、異なるプロンプトとトレーニング戦略を考案し、言語モデリングを通してターゲット分布を学習する。
論文 参考訳(メタデータ) (2023-11-20T06:06:20Z) - Towards Subject Agnostic Affective Emotion Recognition [8.142798657174332]
脳波信号による脳-コンピュータインタフェース(aBCI)の不安定性
本稿では,メタラーニングに基づくメタドメイン適応手法を提案する。
提案手法は,パブリックなaBICsデータセットの実験において有効であることが示されている。
論文 参考訳(メタデータ) (2023-10-20T23:44:34Z) - Pin the Memory: Learning to Generalize Semantic Segmentation [68.367763672095]
本稿ではメタラーニングフレームワークに基づくセマンティックセグメンテーションのための新しいメモリ誘導ドメイン一般化手法を提案する。
本手法は,セマンティッククラスの概念的知識を,ドメインを超えて一定であるカテゴリ記憶に抽象化する。
論文 参考訳(メタデータ) (2022-04-07T17:34:01Z) - Domain-oriented Language Pre-training with Adaptive Hybrid Masking and
Optimal Transport Alignment [43.874781718934486]
我々は、異なるアプリケーションドメインに対して事前訓練された言語モデルを適用するための一般的なドメイン指向のアプローチを提供する。
フレーズ知識を効果的に保存するために,補助訓練ツールとしてドメインフレーズプールを構築した。
我々はクロスエンティティアライメントを導入し、エンティティアライメントを弱い監督力として活用し、事前訓練されたモデルのセマンティックラーニングを強化する。
論文 参考訳(メタデータ) (2021-12-01T15:47:01Z) - Domain Adaptation for Semantic Segmentation via Patch-Wise Contrastive
Learning [62.7588467386166]
ドメイン間で構造的に類似するラベルパッチの機能を調整することで、ドメインギャップを埋めるためにコントラスト学習を利用する。
私たちのアプローチは、常に2つの困難なドメイン適応セグメンテーションタスクにおいて、最先端の非監視および半監督メソッドを上回ります。
論文 参考訳(メタデータ) (2021-04-22T13:39:12Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Towards Recognizing New Semantic Concepts in New Visual Domains [9.701036831490768]
我々は、これまで見えない視覚領域で機能し、新しいセマンティックな概念を認識できるディープアーキテクチャを設計することが重要であると論じている。
論文の第1部では、深層モデルが新しいビジュアルドメインに一般化できるように、異なるソリューションについて記述する。
第2部では、事前訓練された深層モデルの知識を、元のトレーニングセットにアクセスすることなく、新しい意味概念に拡張する方法を示す。
論文 参考訳(メタデータ) (2020-12-16T16:23:40Z) - Effective Unsupervised Domain Adaptation with Adversarially Trained
Language Models [54.569004548170824]
注意的なマスキング戦略は、マスキングされた言語モデルの知識ギャップを橋渡しできることを示す。
本稿では,これらのトークンを逆さまにマスキングすることで効果的なトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-10-05T01:49:47Z) - Learning to adapt class-specific features across domains for semantic
segmentation [36.36210909649728]
本論文では,クラス情報毎に考慮し,ドメイン間の特徴を適応させることを学習する新しいアーキテクチャを提案する。
我々は最近導入されたStarGANアーキテクチャを画像翻訳のバックボーンとして採用している。
論文 参考訳(メタデータ) (2020-01-22T23:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。