論文の概要: Cross Domain Emotion Recognition using Few Shot Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2110.05021v1
- Date: Mon, 11 Oct 2021 06:22:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 06:23:15.229443
- Title: Cross Domain Emotion Recognition using Few Shot Knowledge Transfer
- Title(参考訳): わずかなショット知識伝達を用いたクロスドメイン感情認識
- Authors: Justin Olah, Sabyasachee Baruah, Digbalay Bose, and Shrikanth
Narayanan
- Abstract要約: ほとんどショットもゼロショットも、文書や感情ラベルを共有埋め込み空間に投影することで、目に見えない感情を一般化することができる。
本研究では,GoEmotions Reddit データセットの監視から得られた知識をSemEval ツイートコーパスに転送することで,数発の感情認識の課題を探求する。
- 参考スコア(独自算出の注目度): 21.750633928464026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition from text is a challenging task due to diverse emotion
taxonomies, lack of reliable labeled data in different domains, and highly
subjective annotation standards. Few-shot and zero-shot techniques can
generalize across unseen emotions by projecting the documents and emotion
labels onto a shared embedding space. In this work, we explore the task of
few-shot emotion recognition by transferring the knowledge gained from
supervision on the GoEmotions Reddit dataset to the SemEval tweets corpus,
using different emotion representation methods. The results show that knowledge
transfer using external knowledge bases and fine-tuned encoders perform
comparably as supervised baselines, requiring minimal supervision from the task
dataset.
- Abstract(参考訳): テキストからの感情認識は、多様な感情分類法、異なるドメインにおける信頼できるラベル付きデータの欠如、そして非常に主観的なアノテーション標準のために難しい課題である。
ほとんどショットもゼロショットも、文書や感情ラベルを共有埋め込み空間に投影することで、目に見えない感情を一般化することができる。
本研究では,GoEmotions Redditデータセットの監視から得られた知識を,異なる感情表現手法を用いてSemEvalツイートコーパスに転送することで,数発の感情認識の課題を探求する。
その結果,外部知識ベースと微調整エンコーダを用いた知識伝達は,教師付きベースラインとして,タスクデータセットからの最小限の監督を必要とすることがわかった。
関連論文リスト
- Temporal Label Hierachical Network for Compound Emotion Recognition [16.258721361021443]
本稿では,第7回フィールド感情行動分析(ABAW)コンペの成果を紹介する。
時間経過に伴う感情の連続性を考慮して,フレームレベルの感情予測のための時間ピラミッド構造ネットワークを提案する。
同時に、複合感情認識におけるデータの欠如に対処するために、DFEWデータベースからのきめ細かいラベルを利用する。
論文 参考訳(メタデータ) (2024-07-17T19:38:44Z) - Learning Emotion Representations from Verbal and Nonverbal Communication [7.747924294389427]
本稿では,言語・非言語コミュニケーションから視覚的感情表現を抽出する最初の事前学習パラダイムであるEmotionCLIPを提案する。
EmotionCLIPは、感情誘導型コントラスト学習を用いて、主観的文脈エンコーディングと言語感情キューを通じて、非言語感情キューへの参加を誘導する。
EmotionCLIPは、感情理解におけるデータ不足の一般的な問題に対処し、関連する領域の進歩を促進する。
論文 参考訳(メタデータ) (2023-05-22T21:36:55Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Uncovering the Limits of Text-based Emotion Detection [0.0]
感情分類のための最大のコーパスは、GoEmotions、読者によってラベル付けされた58Kメッセージ、Vent、ライターがラベル付けされた33Mメッセージである。
我々はベンチマークを設計し、BERT上に2つのシンプルな新しいモデルを含むいくつかの特徴空間と学習アルゴリズムを評価する。
論文 参考訳(メタデータ) (2021-09-04T16:40:06Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition [29.916609743097215]
一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
論文 参考訳(メタデータ) (2021-04-05T15:59:31Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z) - COSMIC: COmmonSense knowledge for eMotion Identification in
Conversations [95.71018134363976]
我々は,心的状態,出来事,因果関係など,常識の異なる要素を取り入れた新しい枠組みであるCOSMICを提案する。
我々は,COSMICが4つのベンチマークの会話データセット上で,感情認識のための最新の結果を実現することを示す。
論文 参考訳(メタデータ) (2020-10-06T15:09:38Z) - Emotion Carrier Recognition from Personal Narratives [74.24768079275222]
パーソナル・ナラティブズ(Personal Narratives、PN)は、自分の経験から事実、出来事、思考を回想するものである。
感情キャリア認識(ECR)のための新しい課題を提案する。
論文 参考訳(メタデータ) (2020-08-17T17:16:08Z) - Meta Transfer Learning for Emotion Recognition [42.61707533351803]
本研究では、ある視覚的/聴覚的感情領域から学習した感情知識を、別の視覚的/聴覚的感情領域に伝達できるPathNetに基づく伝達学習手法を提案する。
提案システムは感情認識の性能を向上し,最近提案された微調整/事前学習モデルに基づく伝達学習手法よりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2020-06-23T00:25:28Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。