論文の概要: Supervised Adversarial Contrastive Learning for Emotion Recognition in
Conversations
- arxiv url: http://arxiv.org/abs/2306.01505v2
- Date: Sun, 9 Jul 2023 23:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 18:16:49.054469
- Title: Supervised Adversarial Contrastive Learning for Emotion Recognition in
Conversations
- Title(参考訳): 会話における感情認識のための教師付きコントラスト学習
- Authors: Dou Hu, Yinan Bao, Lingwei Wei, Wei Zhou, Songlin Hu
- Abstract要約: 本稿では,クラススプレッドの構造化表現を教師付きで学習するためのフレームワークを提案する。
ラベルレベルの機能の一貫性を効果的に活用し、クラス内でのきめ細かい機能を維持することができる。
CATを用いたフレームワークでは,ラベル一貫性とコンテキストローバスト特性を学習するためのシーケンスベースSACL-LSTMを開発した。
- 参考スコア(独自算出の注目度): 24.542445315345464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting generalized and robust representations is a major challenge in
emotion recognition in conversations (ERC). To address this, we propose a
supervised adversarial contrastive learning (SACL) framework for learning
class-spread structured representations in a supervised manner. SACL applies
contrast-aware adversarial training to generate worst-case samples and uses
joint class-spread contrastive learning to extract structured representations.
It can effectively utilize label-level feature consistency and retain
fine-grained intra-class features. To avoid the negative impact of adversarial
perturbations on context-dependent data, we design a contextual adversarial
training (CAT) strategy to learn more diverse features from context and enhance
the model's context robustness. Under the framework with CAT, we develop a
sequence-based SACL-LSTM to learn label-consistent and context-robust features
for ERC. Experiments on three datasets show that SACL-LSTM achieves
state-of-the-art performance on ERC. Extended experiments prove the
effectiveness of SACL and CAT.
- Abstract(参考訳): 一般化されたロバスト表現の抽出は、会話における感情認識(erc)において大きな課題である。
そこで本研究では,クラススプレッド構造表現を教師付きで学習するための,教師付き対逆学習(SACL)フレームワークを提案する。
SACLはコントラスト対応逆行訓練を適用し、最悪のサンプルを生成し、コントラスト学習を用いて構造化表現を抽出する。
ラベルレベルの機能一貫性を効果的に活用し、クラス内の細かな機能を保持できる。
文脈依存データに対する敵意摂動の悪影響を避けるために,コンテキストからより多様な特徴を学習し,モデルのコンテキストロバスト性を高めるために,cat(contextual adversarial training)戦略を設計する。
CAT を用いたフレームワークでは,ERC のラベル一貫性とコンテキスト特性を学習するためのシーケンスベース SACL-LSTM を開発した。
3つのデータセットの実験により、SACL-LSTMはERCの最先端のパフォーマンスを達成することが示された。
拡張実験はSACLとCATの有効性を証明した。
関連論文リスト
- Investigating the Pre-Training Dynamics of In-Context Learning: Task Recognition vs. Task Learning [99.05401042153214]
In-context Learning(ICL)は、タスク認識(TR)とタスク学習(TL)の2つの主要な能力に起因する可能性がある。
ICLの出現の事前学習のダイナミクスを調べることで、第一歩を踏み出す。
そこで本研究では,この2つの機能を推論時によりよく統合するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T06:37:47Z) - On the Effectiveness of Supervision in Asymmetric Non-Contrastive Learning [5.123232962822044]
非対称非競合学習(ANCL)は、自己指導的表現学習において、対照的な学習よりも優れていることが多い。
教師付き表現学習のためのANCL(SupSiamとSupBYOL)について検討し,より優れた表現を実現するためにANCLのラベルを活用する。
分析の結果,ANCLの監督はクラス内ばらつきを低減し,最高の性能を達成するためには,監督の貢献を調整すべきであることが判明した。
論文 参考訳(メタデータ) (2024-06-16T06:43:15Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - SSLCL: An Efficient Model-Agnostic Supervised Contrastive Learning
Framework for Emotion Recognition in Conversations [20.856739541819056]
会話における感情認識(ERC)は、自然言語処理コミュニティの中で急速に進化している課題である。
We propose a efficient and model-agnostic SCL framework named Supervised Sample-Label Contrastive Learning with Soft-HGR Maximal correlation (SSLCL)。
浅い多層パーセプトロンを通して、離散ラベルを密度の高い埋め込みに投影することで、ラベル表現を活用する新しい視点を導入する。
論文 参考訳(メタデータ) (2023-10-25T14:41:14Z) - Improving Representation Learning for Histopathologic Images with
Cluster Constraints [31.426157660880673]
自己教師型学習(SSL)事前学習戦略が,現実的な代替手段として浮上している。
転送可能な表現学習と意味的に意味のあるクラスタリングのためのSSLフレームワークを導入する。
我々の手法は、下流の分類やクラスタリングタスクにおいて一般的なSSLメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-10-18T21:20:44Z) - Cluster-Level Contrastive Learning for Emotion Recognition in
Conversations [13.570186295041644]
会話における感情認識の鍵となる課題は、意味的に類似した感情を区別することである。
SCL(Supervised Contrastive Learning, Supervised Contrastive Learning)は、分類的感情ラベルを高次元意味空間における教師信号やコントラストとして利用する。
本稿では,SCLの高次元空間を3次元の影響表現空間に還元する低次元クラスタレベルコントラスト学習(SCCL)法を提案する。
論文 参考訳(メタデータ) (2023-02-07T14:49:20Z) - Non-Contrastive Learning Meets Language-Image Pre-Training [145.6671909437841]
非コントラスト型言語画像事前学習(nCLIP)の有効性について検討する。
我々は、CLIPとnCLIPを組み合わせたマルチタスクフレームワークであるxCLIPを紹介し、nCLIPが機能セマンティクスの強化にCLIPを支援することを示す。
論文 参考訳(メタデータ) (2022-10-17T17:57:46Z) - On Higher Adversarial Susceptibility of Contrastive Self-Supervised
Learning [104.00264962878956]
コントラスト型自己教師学習(CSL)は,画像と映像の分類において,教師あり学習のパフォーマンスに適合するか上回っている。
2つの学習パラダイムによって誘導される表現の性質が似ているかどうかは、いまだに不明である。
我々は,CSL表現空間における単位超球面上のデータ表現の均一分布を,この現象の鍵となる要因として同定する。
CSLトレーニングでモデルロバスト性を改善するのにシンプルだが有効である戦略を考案する。
論文 参考訳(メタデータ) (2022-07-22T03:49:50Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - HiCLRE: A Hierarchical Contrastive Learning Framework for Distantly
Supervised Relation Extraction [24.853265244512954]
雑音の少ない文を抽出するための階層的コントラスト学習フレームワーク (HiCLRE) を提案する。
具体的には,3段階の階層型学習フレームワークを提案する。
実験により、HiCLREは様々なメインストリームDSREデータセットにおいて、強いベースラインを著しく上回っていることが示された。
論文 参考訳(メタデータ) (2022-02-27T12:48:26Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。