論文の概要: Domain Adapting Deep Reinforcement Learning for Real-world Speech Emotion Recognition
- arxiv url: http://arxiv.org/abs/2207.12248v3
- Date: Mon, 16 Dec 2024 13:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:48:52.121891
- Title: Domain Adapting Deep Reinforcement Learning for Real-world Speech Emotion Recognition
- Title(参考訳): ドメイン適応型深層強化学習による実世界の音声感情認識
- Authors: Thejan Rajapakshe, Rajib Rana, Sara Khalifa, Bjorn W. Schuller,
- Abstract要約: 音声感情認識(SER)は、クロスコーパスおよび実世界のライブデータフィードシナリオで改善することができる。
既存のモデルを新しいドメインに適応できないことは、SERメソッドの欠点の1つです。
実世界のライブデータフィード設定に事前学習モデルを適用するための深層強化学習型戦略(RL-DA)を提案する。
- 参考スコア(独自算出の注目度): 5.737823232271047
- License:
- Abstract: Computers can understand and then engage with people in an emotionally intelligent way thanks to speech-emotion recognition (SER). However, the performance of SER in cross-corpus and real-world live data feed scenarios can be significantly improved. The inability to adapt an existing model to a new domain is one of the shortcomings of SER methods. To address this challenge, researchers have developed domain adaptation techniques that transfer knowledge learnt by a model across the domain. Although existing domain adaptation techniques have improved performances across domains, they can be improved to adapt to a real-world live data feed situation where a model can self-tune while deployed. In this paper, we present a deep reinforcement learning-based strategy (RL-DA) for adapting a pre-trained model to a real-world live data feed setting while interacting with the environment and collecting continual feedback. RL-DA is evaluated on SER tasks, including cross-corpus and cross-language domain adaption schema. Evaluation results show that in a live data feed setting, RL-DA outperforms a baseline strategy by 11% and 14% in cross-corpus and cross-language scenarios, respectively.
- Abstract(参考訳): コンピュータは、音声感情認識(SER)のおかげで、感情的に知的な方法で人々と対話することができる。
しかし、クロスコーパスおよび実世界のライブデータフィードシナリオにおけるSERの性能は大幅に改善できる。
既存のモデルを新しいドメインに適応できないことは、SERメソッドの欠点の1つです。
この課題に対処するため、研究者はドメインをまたいだモデルによって学習された知識を伝達するドメイン適応技術を開発した。
既存のドメイン適応技術では、ドメイン間のパフォーマンスが改善されているが、モデルがデプロイ中に自己チューニングできる現実のライブデータフィード状況に適応するように改善することができる。
本稿では,環境と対話し,継続的なフィードバックを収集しながら,事前学習したモデルを実世界のライブデータフィード設定に適用するための深層強化学習型戦略(RL-DA)を提案する。
RL-DAは、クロスコーパスやクロス言語ドメイン適応スキーマを含むSERタスクで評価される。
その結果,RL-DAは,実データフィード設定において,クロスコーパスおよびクロスランゲージシナリオにおいて,ベースライン戦略を11%,14%上回る結果を得た。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Adapt in Contexts: Retrieval-Augmented Domain Adaptation via In-Context
Learning [48.22913073217633]
大規模言語モデル(LLM)は、インコンテキスト学習(in-context learning)として知られる少数の推論でその能力を示した。
本稿では,UDA問題を文脈内学習環境下で研究し,ソースドメインからターゲットドメインへの言語モデルの適用を,ターゲットラベルを使わずに行う。
我々は、異なるLMアーキテクチャを考慮し、異なるプロンプトとトレーニング戦略を考案し、言語モデリングを通してターゲット分布を学習する。
論文 参考訳(メタデータ) (2023-11-20T06:06:20Z) - Towards Subject Agnostic Affective Emotion Recognition [8.142798657174332]
脳波信号による脳-コンピュータインタフェース(aBCI)の不安定性
本稿では,メタラーニングに基づくメタドメイン適応手法を提案する。
提案手法は,パブリックなaBICsデータセットの実験において有効であることが示されている。
論文 参考訳(メタデータ) (2023-10-20T23:44:34Z) - Pin the Memory: Learning to Generalize Semantic Segmentation [68.367763672095]
本稿ではメタラーニングフレームワークに基づくセマンティックセグメンテーションのための新しいメモリ誘導ドメイン一般化手法を提案する。
本手法は,セマンティッククラスの概念的知識を,ドメインを超えて一定であるカテゴリ記憶に抽象化する。
論文 参考訳(メタデータ) (2022-04-07T17:34:01Z) - Domain-oriented Language Pre-training with Adaptive Hybrid Masking and
Optimal Transport Alignment [43.874781718934486]
我々は、異なるアプリケーションドメインに対して事前訓練された言語モデルを適用するための一般的なドメイン指向のアプローチを提供する。
フレーズ知識を効果的に保存するために,補助訓練ツールとしてドメインフレーズプールを構築した。
我々はクロスエンティティアライメントを導入し、エンティティアライメントを弱い監督力として活用し、事前訓練されたモデルのセマンティックラーニングを強化する。
論文 参考訳(メタデータ) (2021-12-01T15:47:01Z) - Domain Adaptation for Semantic Segmentation via Patch-Wise Contrastive
Learning [62.7588467386166]
ドメイン間で構造的に類似するラベルパッチの機能を調整することで、ドメインギャップを埋めるためにコントラスト学習を利用する。
私たちのアプローチは、常に2つの困難なドメイン適応セグメンテーションタスクにおいて、最先端の非監視および半監督メソッドを上回ります。
論文 参考訳(メタデータ) (2021-04-22T13:39:12Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Towards Recognizing New Semantic Concepts in New Visual Domains [9.701036831490768]
我々は、これまで見えない視覚領域で機能し、新しいセマンティックな概念を認識できるディープアーキテクチャを設計することが重要であると論じている。
論文の第1部では、深層モデルが新しいビジュアルドメインに一般化できるように、異なるソリューションについて記述する。
第2部では、事前訓練された深層モデルの知識を、元のトレーニングセットにアクセスすることなく、新しい意味概念に拡張する方法を示す。
論文 参考訳(メタデータ) (2020-12-16T16:23:40Z) - Learning to adapt class-specific features across domains for semantic
segmentation [36.36210909649728]
本論文では,クラス情報毎に考慮し,ドメイン間の特徴を適応させることを学習する新しいアーキテクチャを提案する。
我々は最近導入されたStarGANアーキテクチャを画像翻訳のバックボーンとして採用している。
論文 参考訳(メタデータ) (2020-01-22T23:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。