論文の概要: Fixed-MAML for Few Shot Classification in Multilingual Speech Emotion
Recognition
- arxiv url: http://arxiv.org/abs/2101.01356v1
- Date: Tue, 5 Jan 2021 05:51:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 20:59:32.274493
- Title: Fixed-MAML for Few Shot Classification in Multilingual Speech Emotion
Recognition
- Title(参考訳): 多言語音声感情認識における最小ショット分類のための固定maml
- Authors: Anugunj Naman, Liliana Mancini
- Abstract要約: 音声音声認識タスク(SER)に少数発話学習を適用することの可能性を解析する。
本稿では,モデル非依存メタラーニング(MAML)アルゴリズムを改良し,この問題を解き,新しいモデルF-MAMLと呼ぶ。
この変更は元の MAML よりも優れており、EmoFilm データセットよりも優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we analyze the feasibility of applying few-shot learning to
speech emotion recognition task (SER). The current speech emotion recognition
models work exceptionally well but fail when then input is multilingual.
Moreover, when training such models, the models' performance is suitable only
when the training corpus is vast. This availability of a big training corpus is
a significant problem when choosing a language that is not much popular or
obscure. We attempt to solve this challenge of multilingualism and lack of
available data by turning this problem into a few-shot learning problem. We
suggest relaxing the assumption that all N classes in an N-way K-shot problem
be new and define an N+F way problem where N and F are the number of emotion
classes and predefined fixed classes, respectively. We propose this
modification to the Model-Agnostic MetaLearning (MAML) algorithm to solve the
problem and call this new model F-MAML. This modification performs better than
the original MAML and outperforms on EmoFilm dataset.
- Abstract(参考訳): 本稿では,音声感情認識タスク(SER)に少数ショット学習を適用する可能性について分析する。
現在の音声感情認識モデルは、非常にうまく機能するが、入力が多言語であれば失敗する。
さらに、そのようなモデルをトレーニングする場合、トレーニングコーパスが広い場合にのみモデルの性能が適する。
大きなトレーニングコーパスが利用できることは、あまり人気がない言語やあいまいでない言語を選択する場合の重要な問題である。
我々は,この課題を数発学習問題にすることで,多言語主義と利用可能なデータの欠如という課題を解決しようとする。
N-ウェイK-ショット問題におけるすべてのNクラスが新しく、NとFがそれぞれ感情クラスの数と予め定義された固定クラスであるようなN+F経路問題を定義するという仮定を緩和することを提案する。
本稿では,モデル非依存メタラーニング(MAML)アルゴリズムを改良し,この問題を解き,新しいモデルF-MAMLと呼ぶ。
この修正は、オリジナルのMAMLよりもパフォーマンスが良く、EmoFilmデータセットよりも優れている。
関連論文リスト
- Leveraging Weakly Annotated Data for Hate Speech Detection in Code-Mixed
Hinglish: A Feasibility-Driven Transfer Learning Approach with Large Language
Models [0.0]
混合コード低リソース言語におけるヘイトスピーチ検出は、大規模言語モデルの使用が有益であることが証明された活発な問題領域である。
そこで本研究では,100件のYouTubeコメントのデータセットを作成した。
すべてのアプローチにおいて、双方向自動回帰変換器(BART)を用いたゼロショット分類と、生成事前学習変換器3(ChatGPT-3)を用いた少数ショットプロンプトが最適である。
論文 参考訳(メタデータ) (2024-03-04T15:27:49Z) - Mitigating Reversal Curse in Large Language Models via Semantic-aware Permutation Training [57.771940716189114]
我々は、大きな言語モデル(LLM)が「逆の呪い」に苦しむことを示す。
逆の呪いの根本原因は、訓練と推論の段階で異なる単語順にある。
この問題に対処するために,SPT(Semantic-Aware Permutation Training)を提案する。
論文 参考訳(メタデータ) (2024-03-01T18:55:20Z) - MiLe Loss: a New Loss for Mitigating the Bias of Learning Difficulties in Generative Language Models [40.992566245706996]
トークンによる学習難易度を緩和するMiLe Loss関数を提案する。
我々は468M,1.2B,6.7Bパラメータの異なるスケールで生成言語モデルを訓練する。
実験により、提案されたMiLe Lossを組み込んだモデルが下流ベンチマークで一貫したパフォーマンス向上を達成できることが明らかになった。
論文 参考訳(メタデータ) (2023-10-30T13:33:21Z) - Making Retrieval-Augmented Language Models Robust to Irrelevant Context [55.564789967211844]
ALMの重要なデシプラタムは、検索された情報が関連する場合のパフォーマンスをモデル化するのに役立つことである。
近年の研究では、検索の増大がパフォーマンスに悪影響を及ぼすことが示されている。
論文 参考訳(メタデータ) (2023-10-02T18:52:35Z) - Nonparametric Masked Language Modeling [113.71921977520864]
既存の言語モデル(LM)は、有限語彙上のソフトマックスでトークンを予測する。
NPMは,このソフトマックスを参照コーパス内の各フレーズの非パラメトリック分布に置き換える最初の非パラメトリックマスク付き言語モデルである。
NPMは、コントラスト目的と全コーパス検索に対するバッチ内近似で効率的に訓練することができる。
論文 参考訳(メタデータ) (2022-12-02T18:10:42Z) - Multi-Modal Few-Shot Temporal Action Detection [157.96194484236483]
Few-shot (FS) と Zero-shot (ZS) の学習は、時間的行動検出を新しいクラスに拡張するための2つの異なるアプローチである。
我々は、FS-TADとZS-TADの結婚として考えられるMMFS (Multi-modality few-shot) TAD問題を導入する。
論文 参考訳(メタデータ) (2022-11-27T18:13:05Z) - Zero-Shot Learners for Natural Language Understanding via a Unified
Multiple Choice Perspective [26.41585967095811]
ゼロショット学習は、与えられたタスクでモデルをトレーニングすることを目的としており、追加のトレーニングなしで新しい学習タスクに対処できる。
提案手法は、ゼロショット学習を複数選択タスクに変換し、FLANなどの大規模生成モデルで一般的に使用される問題を回避する。
提案手法は,いくつかのベンチマークにおいて最先端の性能を示し,自然言語推論やテキスト分類といったタスクに対して良好な結果をもたらす。
論文 参考訳(メタデータ) (2022-10-16T17:24:06Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Neural Models for Offensive Language Detection [0.0]
攻撃的言語検出は、成長を続ける自然言語処理(NLP)アプリケーションである。
このような有害なコンテンツと戦うために、さまざまな機械学習モデルの改善と比較に貢献することが、この論文の重要な、挑戦的な目標である、と私たちは信じています。
論文 参考訳(メタデータ) (2021-05-30T13:02:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。