論文の概要: A novel policy for pre-trained Deep Reinforcement Learning for Speech
Emotion Recognition
- arxiv url: http://arxiv.org/abs/2101.00738v2
- Date: Sun, 31 Jan 2021 10:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 22:48:45.859311
- Title: A novel policy for pre-trained Deep Reinforcement Learning for Speech
Emotion Recognition
- Title(参考訳): 音声認識のための事前学習型深層強化学習のための新しいポリシー
- Authors: Thejan Rajapakshe, Rajib Rana, Sara Khalifa, Bj\"orn W. Schuller,
Jiajun Liu
- Abstract要約: Reinforcement Learning(RL)は、エージェントが環境と相互作用することによって学習する半教師付き学習パラダイムです。
ディープRLはAlphaGoのようなゲームで大成功を収めてきたが、音声感情認識(SER)のような挑戦的なタスクのためにその可能性を探ることはめったにない。
本稿では、SERに適した新しいポリシー「ゼタポリシー」を導入し、より高速な学習率を達成するために深部RLでの事前学習を適用する。
- 参考スコア(独自算出の注目度): 8.175197257598697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning (RL) is a semi-supervised learning paradigm which an
agent learns by interacting with an environment. Deep learning in combination
with RL provides an efficient method to learn how to interact with the
environment is called Deep Reinforcement Learning (deep RL). Deep RL has gained
tremendous success in gaming - such as AlphaGo, but its potential have rarely
being explored for challenging tasks like Speech Emotion Recognition (SER). The
deep RL being used for SER can potentially improve the performance of an
automated call centre agent by dynamically learning emotional-aware response to
customer queries. While the policy employed by the RL agent plays a major role
in action selection, there is no current RL policy tailored for SER. In
addition, extended learning period is a general challenge for deep RL which can
impact the speed of learning for SER. Therefore, in this paper, we introduce a
novel policy - "Zeta policy" which is tailored for SER and apply Pre-training
in deep RL to achieve faster learning rate. Pre-training with cross dataset was
also studied to discover the feasibility of pre-training the RL Agent with a
similar dataset in a scenario of where no real environmental data is not
available. IEMOCAP and SAVEE datasets were used for the evaluation with the
problem being to recognize four emotions happy, sad, angry and neutral in the
utterances provided. Experimental results show that the proposed "Zeta policy"
performs better than existing policies. The results also support that
pre-training can reduce the training time upon reducing the warm-up period and
is robust to cross-corpus scenario.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、エージェントが環境と対話して学習する半教師付き学習パラダイムである。
RLと組み合わせたディープラーニングは、Deep Reinforcement Learning (Deep RL)と呼ばれる、環境とのインタラクション方法を学ぶための効率的な方法を提供する。
deep rlはalphagoのようなゲームで大きな成功を収めているが、音声感情認識(ser)のような困難なタスクでその可能性を探求することは滅多にない。
SERで使用されているディープRLは、顧客クエリに対する感情認識応答を動的に学習することで、自動コールセンタエージェントのパフォーマンスを向上させることができる。
RLエージェントが採用するポリシーは、アクション選択において重要な役割を果たすが、SERに適した現在のRLポリシーはない。
さらに、学習期間の延長は、SERの学習速度に影響を与えるディープRLの一般的な課題である。
そこで本稿では,SERに適した新しい政策であるゼタポリシーを導入し,より高速な学習率を実現するために深部RLでの事前学習を適用した。
クロスデータセットによる事前トレーニングも研究され、実際の環境データが利用できないシナリオにおいて、同様のデータセットでRLエージェントを事前トレーニングする可能性を発見した。
IEMOCAPとSAVEEデータセットは、提供された発話において4つの感情を幸せ、悲しみ、怒り、中立と認識するために使用される。
実験の結果,提案した「ゼタ政策」は既存政策よりも優れた性能を示した。
その結果、ウォームアップ期間を短縮してトレーニング時間を短縮し、クロスコーポックシナリオに堅牢なトレーニングが可能になる。
関連論文リスト
- SHIRE: Enhancing Sample Efficiency using Human Intuition in REinforcement Learning [11.304750795377657]
確率的図形モデル(PGM)を用いた人間の直観を符号化するフレームワークShireを提案する。
ShiREは、評価対象環境の25~78%のサンプル効率を、無視可能なオーバーヘッドコストで達成します。
論文 参考訳(メタデータ) (2024-09-16T04:46:22Z) - Using Offline Data to Speed-up Reinforcement Learning in Procedurally
Generated Environments [11.272582555795989]
本研究では, エージェントがオフラインデータをトラジェクトリ形式で活用して, 手続き的に生成した環境におけるサンプル効率を向上させることができるかを検討した。
1)オンラインRLトレーニングの前にポリシーを事前学習し、(2)オフラインデータからオンラインRLとILでポリシーを同時に訓練する。
論文 参考訳(メタデータ) (2023-04-18T16:23:15Z) - Flexible Attention-Based Multi-Policy Fusion for Efficient Deep
Reinforcement Learning [78.31888150539258]
強化学習(RL)エージェントは、長い間、人間の学習の効率にアプローチしようとしてきた。
RLにおける以前の研究は、エージェントがサンプル効率を改善するために外部知識ポリシーを取り入れていた。
我々は,複数の知識ポリシーを融合させたRLパラダイムであるKGRL(Knowledge-Grounded RL)について述べる。
論文 参考訳(メタデータ) (2022-10-07T17:56:57Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - AWAC: Accelerating Online Reinforcement Learning with Offline Datasets [84.94748183816547]
提案手法は,従来の実演データとオンライン体験を組み合わせることで,スキルの素早い学習を可能にする。
以上の結果から,事前データを組み込むことで,ロボット工学を実践的な時間スケールまで学習するのに要する時間を短縮できることが示唆された。
論文 参考訳(メタデータ) (2020-06-16T17:54:41Z) - Balancing Reinforcement Learning Training Experiences in Interactive
Information Retrieval [19.723551683930776]
対話型情報検索(IIR)と強化学習(RL)は、対話中に学習するエージェントなど、多くの共通点を共有している。
IIRにRLメソッドをうまく適用するには、RLエージェントを訓練するための十分な関連ラベルを得ることが課題である。
本論文は、ドメインランダム化を用いて、より関連性の高い文書を合成することにより、この問題に対処する。
論文 参考訳(メタデータ) (2020-06-05T00:38:39Z) - Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks [70.56451186797436]
本研究では,メタ強化学習を用いてシミュレーションの課題の大部分を解決する方法について検討する。
エージェントを訓練して現実の挿入タスクを成功させる手法を実証する。
論文 参考訳(メタデータ) (2020-04-29T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。