論文の概要: Both Matter: Enhancing the Emotional Intelligence of Large Language
Models without Compromising the General Intelligence
- arxiv url: http://arxiv.org/abs/2402.10073v1
- Date: Thu, 15 Feb 2024 16:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 14:45:44.370682
- Title: Both Matter: Enhancing the Emotional Intelligence of Large Language
Models without Compromising the General Intelligence
- Title(参考訳): 両論とも、一般知能を損なうことなく大規模言語モデルの感情知性を高めること
- Authors: Weixiang Zhao, Zhuojun Li, Shilong Wang, Yang Wang, Yulin Hu, Yanyan
Zhao, Chen Wei, Bing Qin
- Abstract要約: 感情インテリジェンス(EI)は、現在の大言語モデル(LLM)ベースの会話型汎用AIアシスタントのユーザインタラクションエクスペリエンスを改善する上で、重要な役割を果たす。
これまでの研究は主に、EI関連分類や回帰タスクの微調整による感情知覚能力の向上に重点を置いていた。
タスク命令付きテキスト・ツー・テキスト生成におけるEI関連タスクの大規模コレクションであるtextscEiBenchを紹介する。
UnderlinetextbfModular UnderlinetextbfEmotional Underline
- 参考スコア(独自算出の注目度): 43.508058657358916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotional Intelligence (EI), consisting of emotion perception, emotion
cognition and emotion expression, plays the critical roles in improving user
interaction experience for the current large language model (LLM) based
conversational general AI assistants. Previous works mainly focus on raising
the emotion perception ability of them via naive fine-tuning on EI-related
classification or regression tasks. However, this leads to the incomplete
enhancement of EI and catastrophic forgetting of the general intelligence (GI).
To this end, we first introduce \textsc{EiBench}, a large-scale collection of
EI-related tasks in the text-to-text formation with task instructions that
covers all three aspects of EI, which lays a solid foundation for the
comprehensive EI enhancement of LLMs. Then a novel \underline{\textbf{Mo}}dular
\underline{\textbf{E}}motional \underline{\textbf{I}}ntelligence enhancement
method (\textbf{MoEI}), consisting of Modular Parameter Expansion and
intra-inter modulation, is proposed to comprehensively enhance the EI of LLMs
without compromise their GI. Extensive experiments on two representative
LLM-based assistants, Flan-T5 and LLaMA-2-Chat, demonstrate the effectiveness
of MoEI to improving EI while maintain GI.
- Abstract(参考訳): 感情インテリジェンス(EI)は、感情知覚、感情認知、感情表現から構成され、現在の大言語モデル(LLM)ベースの会話型汎用AIアシスタントのユーザインタラクションエクスペリエンスを改善する上で重要な役割を果たす。
これまでの研究は主に、EI関連分類や回帰タスクの微調整による感情知覚能力の向上に重点を置いていた。
しかし、これはEIの不完全な拡張と一般知能(GI)の破滅的な忘れに繋がる。
この目的のために、まず、テキストからテキストへの変換におけるei関連のタスクの大規模なコレクションである \textsc{eibench} を ei の3つの側面すべてをカバーするタスク命令とともに導入し、llms の包括的な ei 拡張のための強固な基盤を構築した。
そこで, Modular Parameter Expansion と Inter-inter modulation からなる新しい \underline{\textbf{Mo}}dular \underline{\textbf{E}}motional \underline{\textbf{I}}ntelligence enhancement method (\textbf{MoEI}) を提案し, GI を損なわずに LLM の EI を包括的に拡張する。
Flan-T5 と LLaMA-2-Chat の 2 つの LLM ベースアシスタントの広範囲な実験は、GI を維持しながら、EI を改善するための MoEI の有効性を実証している。
関連論文リスト
- OPEx: A Component-Wise Analysis of LLM-Centric Agents in Embodied
Instruction Following [38.99303334457817]
EIF(Embodied Instruction following)は、自然言語の指示を満たすために、エージェントが自我中心の観察を通して環境と対話することを要求する、実践的な学習において重要なタスクである。
近年,大規模な言語モデル(LLM)をフレームワーク中心のアプローチで採用し,EDFの性能向上が図られている。
EIFタスクの解決に不可欠なコアコンポーネント(Observer、Planner、Executor)を記述した包括的なフレームワークであるOPExを紹介します。
論文 参考訳(メタデータ) (2024-03-05T14:53:53Z) - EmoBench: Evaluating the Emotional Intelligence of Large Language Models [75.79920924768798]
EmoBenchは、確立された心理学理論に基づいて、マシン感情知能(EI)の包括的な定義を提案するベンチマークである。
EmoBenchには、英語と中国語で400の手作りの質問が含まれている。
以上の結果から,既存の大規模言語モデルのEIと平均的な人間の間には,かなりのギャップがみられ,今後の研究に向けての有望な方向性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-02-19T11:48:09Z) - Evolutionary Computation in the Era of Large Language Model: Survey and
Roadmap [28.923533887367533]
大規模言語モデル (LLM) と進化的アルゴリズム (EA) の相互作用は、複雑な問題における適用可能性の共通の追求を共有している。
本稿では、相互インスピレーションを2つの主要な道に分類する、徹底的なレビューと前方のロードマップを提供する。
特定された課題と今後の方向性は、この革新的なコラボレーションの可能性を最大限に活用することを目指す研究者や実践者に対してガイダンスを提供する。
論文 参考訳(メタデータ) (2024-01-18T14:58:17Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Stance Detection with Collaborative Role-Infused LLM-Based Agents [43.42514843863705]
スタンス検出は、ウェブおよびソーシャルメディア研究におけるコンテンツ分析に不可欠である。
しかし、姿勢検出には、著者の暗黙の視点を推測する高度な推論が必要である。
LLMを異なる役割に指定した3段階のフレームワークを設計する。
複数のデータセットにまたがって最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-16T14:46:52Z) - Self-Convinced Prompting: Few-Shot Question Answering with Repeated
Introspection [13.608076739368949]
本稿では,大規模事前学習型言語モデルの可能性を活用する新しいフレームワークを提案する。
我々のフレームワークは、典型的な数発の連鎖プロンプトの出力を処理し、応答の正しさを評価し、回答を精査し、最終的には新しい解を生成する。
論文 参考訳(メタデータ) (2023-10-08T06:36:26Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Referring Image Segmentation via Cross-Modal Progressive Comprehension [94.70482302324704]
画像セグメンテーションの参照は、自然言語表現で与えられた記述によく一致するエンティティの前景マスクをセグメンテーションすることを目的としている。
従来のアプローチでは、暗黙的な特徴相互作用と視覚的モダリティと言語的モダリティの融合を用いてこの問題に対処していた。
本稿では,この課題に効果的に対応するために,Cross-Modal Progressive (CMPC) モジュールと Text-Guided Feature Exchange (TGFE) モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-01T16:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。