論文の概要: Enhancing Large Language Model with Decomposed Reasoning for Emotion
Cause Pair Extraction
- arxiv url: http://arxiv.org/abs/2401.17716v1
- Date: Wed, 31 Jan 2024 10:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 15:03:04.009740
- Title: Enhancing Large Language Model with Decomposed Reasoning for Emotion
Cause Pair Extraction
- Title(参考訳): 感情原因対抽出のための分解推論による大規模言語モデルの強化
- Authors: Jialiang Wu, Yi Shen, Ziheng Zhang, Longjun Cai
- Abstract要約: Emotion-Cause Pair extract (ECPE) は、感情とその原因を表す節対を文書で抽出する。
近年の成果から着想を得て,大規模言語モデル(LLM)を活用してECPEタスクに追加のトレーニングを加えることなく対処する方法について検討した。
人間の認知過程を模倣するチェーン・オブ・シントを導入し,Decomposed Emotion-Cause Chain (DECC) フレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.245873138716044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion-Cause Pair Extraction (ECPE) involves extracting clause pairs
representing emotions and their causes in a document. Existing methods tend to
overfit spurious correlations, such as positional bias in existing benchmark
datasets, rather than capturing semantic features. Inspired by recent work, we
explore leveraging large language model (LLM) to address ECPE task without
additional training. Despite strong capabilities, LLMs suffer from
uncontrollable outputs, resulting in mediocre performance. To address this, we
introduce chain-of-thought to mimic human cognitive process and propose the
Decomposed Emotion-Cause Chain (DECC) framework. Combining inducing inference
and logical pruning, DECC guides LLMs to tackle ECPE task. We further enhance
the framework by incorporating in-context learning. Experiment results
demonstrate the strength of DECC compared to state-of-the-art supervised
fine-tuning methods. Finally, we analyze the effectiveness of each component
and the robustness of the method in various scenarios, including different LLM
bases, rebalanced datasets, and multi-pair extraction.
- Abstract(参考訳): Emotion-Cause Pair extract (ECPE)は、感情とその原因を表す節対を文書で抽出する。
既存の手法は、セマンティックな特徴をキャプチャするよりも、既存のベンチマークデータセットにおける位置バイアスのような急激な相関を過小評価する傾向がある。
近年の成果から着想を得て,大規模言語モデル(LLM)を活用してECPEタスクに新たなトレーニングを加えることなく対処することを検討した。
強力な能力にもかかわらず、LLMは制御不能な出力に悩まされ、平凡な性能をもたらす。
そこで我々は,人間の認知過程を模倣するチェーン・オブ・シントを導入し,Decomposed Emotion-Cause Chain (DECC) フレームワークを提案する。
推論と論理的なプルーニングの組み合わせにより、DECCはECPEタスクに取り組むためのLCMをガイドする。
文脈内学習を取り入れたフレームワークをさらに強化する。
実験により, DECCの強度を最先端の微調整法と比較した。
最後に,異なるllmベース,再バランスデータセット,マルチペア抽出など様々なシナリオにおいて,各コンポーネントの有効性とロバスト性を分析した。
関連論文リスト
- DEEP-ICL: Definition-Enriched Experts for Language Model In-Context
Learning [61.85871109164743]
大規模言語モデル(LLM)におけるパラメータの多さは、コンテキスト内学習(ICL)の能力を促進すると長い間考えられてきた。
ICL のための新しいタスク定義拡張 ExPert Ensembling Method である DEEP-ICL を紹介する。
ICLの改善はモデルのサイズに直接依存するのではなく、基本的にはタスク定義やタスク誘導学習の理解に起因している、と我々は主張する。
論文 参考訳(メタデータ) (2024-03-07T05:26:41Z) - OPEx: A Component-Wise Analysis of LLM-Centric Agents in Embodied
Instruction Following [38.99303334457817]
EIF(Embodied Instruction following)は、自然言語の指示を満たすために、エージェントが自我中心の観察を通して環境と対話することを要求する、実践的な学習において重要なタスクである。
近年,大規模な言語モデル(LLM)をフレームワーク中心のアプローチで採用し,EDFの性能向上が図られている。
EIFタスクの解決に不可欠なコアコンポーネント(Observer、Planner、Executor)を記述した包括的なフレームワークであるOPExを紹介します。
論文 参考訳(メタデータ) (2024-03-05T14:53:53Z) - From Summary to Action: Enhancing Large Language Models for Complex
Tasks with Open World APIs [62.496139001509114]
大規模な現実世界のAPIを制御するために設計された新しいツール呼び出しパイプラインを導入します。
このパイプラインは人間のタスク解決プロセスを反映し、複雑な実際のユーザクエリに対処する。
ToolBenchベンチマークにおけるSum2Actパイプラインの実証的な評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-28T08:42:23Z) - C-ICL: Contrastive In-context Learning for Information Extraction [44.08005184704089]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [69.43198898396211]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Heuristic-Driven Link-of-Analogy Prompting: Enhancing Large Language
Models for Document-Level Event Argument Extraction [13.42926436351462]
本稿では,Huristic-Driven Link-of-Alogy (HD-LoA)を導入し,サンプル選択の課題に対処する。
人間の類推的推論にインスパイアされ,LLMが新たな状況に対処できるリンク・オブ・アナロジー・プロンプトを提案する。
実験により,本手法は文書レベルのAEデータセット上で,既存のプロンプト手法や数発の教師付き学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-11-11T12:05:01Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - ICL-D3IE: In-Context Learning with Diverse Demonstrations Updating for
Document Information Extraction [56.790794611002106]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、文脈内学習による顕著な結果を示している。
ICL-D3IEと呼ばれるシンプルだが効果的なテキスト内学習フレームワークを提案する。
具体的には、ハードトレーニング文書から最も困難で独特なセグメントをハードデモとして抽出する。
論文 参考訳(メタデータ) (2023-03-09T06:24:50Z) - Joint Alignment of Multi-Task Feature and Label Spaces for Emotion Cause
Pair Extraction [36.123715709125015]
感情原因ペア抽出(ECPE)は、感情原因分析(ECA)の派生したサブタスクの1つである。
ECPEは感情抽出(EE)と原因抽出(CE)に関連性のある豊富な特徴を共有している
論文 参考訳(メタデータ) (2022-09-09T04:06:27Z) - An End-to-End Network for Emotion-Cause Pair Extraction [3.016628653955123]
Emotion-Cause Pair Extraction (ECPE)タスクのエンドツーエンドモデルを提案する。
英語ECPEコーパスが利用できないため、NCCIR-13 ECEコーパスを適応させ、このデータセット上にECPEタスクのベースラインを確立します。
論文 参考訳(メタデータ) (2021-03-02T08:03:03Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。