論文の概要: InstructERC: Reforming Emotion Recognition in Conversation with a
Retrieval Multi-task LLMs Framework
- arxiv url: http://arxiv.org/abs/2309.11911v4
- Date: Tue, 12 Mar 2024 12:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 01:45:37.154550
- Title: InstructERC: Reforming Emotion Recognition in Conversation with a
Retrieval Multi-task LLMs Framework
- Title(参考訳): InstructERC:Retrieval Multi-task LLMs Frameworkを用いた会話における感情認識の再構築
- Authors: Shanglin Lei, Guanting Dong, Xiaoping Wang, Keheng Wang, Sirui Wang
- Abstract要約: 本稿では,Large Language Models(LLMs)に基づく識別的枠組みから生成的枠組みへ,感情認識タスクを再構築する新しい手法を提案する。
インストラクタは3つの重要な貢献をしている。
私たちのコードとアライメントされた統合データセット(UIME)はGithubのリンクで参照できます。
- 参考スコア(独自算出の注目度): 10.926811477543081
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The field of emotion recognition of conversation (ERC) has been focusing on
separating sentence feature encoding and context modeling, lacking exploration
in generative paradigms based on unified designs. In this study, we propose a
novel approach,
\textbf{InstructERC}, to reformulate the ERC task from a discriminative
framework to a generative framework based on Large Language Models (LLMs).
InstructERC makes three significant contributions: (1) it introduces a simple
yet effective retrieval template module, which helps the model explicitly
integrate multi-granularity dialogue supervision information. (2) We introduce
two additional emotion alignment tasks, namely speaker identification and
emotion prediction tasks, to implicitly model the dialogue role relationships
and future emotional tendencies in conversations. (3) Pioneeringly, we unify
emotion labels across benchmarks through the feeling wheel to fit real
application scenarios. InstructERC still perform impressively on this unified
dataset. Our LLM-based plugin framework significantly outperforms all previous
models and achieves comprehensive SOTA on three commonly used ERC datasets.
Extensive analysis of parameter-efficient and data-scaling experiments provides
empirical guidance for applying it in practical scenarios. Our code and aligned
unified dataset (UIME) can be found in the Github link.\footnote{You can find
the offical realization in the Github link:
https://github.com/LIN-SHANG/InstructERC}
- Abstract(参考訳): 会話の感情認識(ERC)の分野は、文の特徴的エンコーディングと文脈モデリングを分離することに注力し、統一設計に基づく生成パラダイムの探索を欠いている。
本研究では,ercタスクを判別フレームワークから大規模言語モデル(llm)に基づく生成フレームワークへ再編成する,新しい手法である \textbf{instructerc} を提案する。
instructercは、3つの重要な貢献をしている: (1) シンプルで効果的な検索テンプレートモジュールを導入し、モデルがマルチグラニュラ性対話の監督情報を明示的に統合するのを助ける。
2)会話における対話の役割関係と将来の感情傾向を暗黙的にモデル化するために,話者識別と感情予測という2つの追加的な感情アライメントタスクを導入する。
3) 先駆的に、実際のアプリケーションシナリオに合うように感触ホイールを通して、ベンチマーク全体で感情ラベルを統一する。
instructercはいまだにこの統一データセットで素晴らしいパフォーマンスを保っています。
LLMベースのプラグインフレームワークは,従来のすべてのモデルより大幅に優れており,一般的に使用されている3つのERCデータセットに対して包括的なSOTAを実現する。
パラメータ効率およびデータスケーリング実験の大規模解析は、実践シナリオに適用するための実証的なガイダンスを提供する。
私たちのコードとアライメントされた統合データセット(UIME)はGithubのリンクで参照できます。
footnote{ you can findical realization in the github link: https://github.com/lin-shang/instructerc}
関連論文リスト
- ACE: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
我々は、エンドツーエンドのクロスモーダル検索のための先駆的なジェネリッククロスモーダル rEtrieval framework (ACE) を提案する。
ACEは、クロスモーダル検索における最先端のパフォーマンスを達成し、Recall@1の強いベースラインを平均15.27%上回る。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - 'What are you referring to?' Evaluating the Ability of Multi-Modal
Dialogue Models to Process Clarificational Exchanges [65.03196674816772]
参照表現が宛先に対して意図された参照を一意に識別しない場合、参照の曖昧さが対話で生じる。
出席者は、通常、そのような曖昧さをすぐに検知し、メタコミュニケーション、明確化取引所(CE: Meta-communicative, Clarification Exchanges)を使用して、話者と作業する。
ここでは、CRを生成・応答する能力は、マルチモーダルな視覚的基盤を持つ対話モデルのアーキテクチャと目的関数に特定の制約を課していると論じる。
論文 参考訳(メタデータ) (2023-07-28T13:44:33Z) - BERT-ERC: Fine-tuning BERT is Enough for Emotion Recognition in
Conversation [19.663265448700002]
会話における感情認識(ERC)に関するこれまでの研究は、2段階のパラダイムを踏襲している。
本研究では,文脈情報と対話構造情報を微調整段階において探索する新しいパラダイムを提案する。
本稿では,提案パラダイムに従って,ERC モデル BERT-ERC を開発し,ERC の性能を3つの面で向上させる。
論文 参考訳(メタデータ) (2023-01-17T08:03:32Z) - Deep Emotion Recognition in Textual Conversations: A Survey [0.8602553195689513]
新しいアプリケーションと実装シナリオは、新しい課題と機会を示します。
これらは会話の文脈、話者、感情のダイナミクスのモデリングから、一般的な感覚表現の解釈まで様々である。
この調査は、アンバランスなデータに対処するテクニックを活用する利点を強調している。
論文 参考訳(メタデータ) (2022-11-16T19:42:31Z) - Learning Interpretable Latent Dialogue Actions With Less Supervision [3.42658286826597]
本稿では,個別変数を用いたタスク指向対話のモデル化のための新しいアーキテクチャを提案する。
本モデルは,変化型リカレントニューラルネットワーク(VRNN)に基づいており,意味情報の明示的なアノテーションを必要としない。
論文 参考訳(メタデータ) (2022-09-22T16:14:06Z) - DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for
Dialog Response Generation [80.45816053153722]
DialogVEDは、拡張エンコーダデコーダ事前トレーニングフレームワークに連続潜伏変数を導入し、応答の関連性と多様性を高める。
我々は,PersonaChat,DailyDialog,DSTC7-AVSDベンチマークを用いて応答生成実験を行った。
論文 参考訳(メタデータ) (2022-04-27T16:18:15Z) - Dialogue Meaning Representation for Task-Oriented Dialogue Systems [51.91615150842267]
タスク指向対話のための柔軟かつ容易に拡張可能な表現である対話意味表現(DMR)を提案する。
我々の表現は、合成意味論とタスク固有の概念のためのリッチな意味論を表現するために、継承階層を持つノードとエッジのセットを含んでいる。
異なる機械学習ベースの対話モデルを評価するための2つの評価タスクを提案し、さらにグラフベースのコア参照解決タスクのための新しいコア参照解決モデルGNNCorefを提案する。
論文 参考訳(メタデータ) (2022-04-23T04:17:55Z) - DCR-Net: A Deep Co-Interactive Relation Network for Joint Dialog Act
Recognition and Sentiment Classification [77.59549450705384]
ダイアログシステムでは、ダイアログアクト認識と感情分類は2つの相関タスクである。
既存のシステムのほとんどは、それらを別々のタスクとして扱うか、単に2つのタスクを一緒にモデル化するだけです。
本稿では,2つのタスク間の相互作用をモデル化するディープ・コ・インタラクティブ・リレーショナル・ネットワーク(DCR-Net)を提案する。
論文 参考訳(メタデータ) (2020-08-16T14:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。