論文の概要: Multi-Modal Emotion Recognition for Enhanced Requirements Engineering: A
Novel Approach
- arxiv url: http://arxiv.org/abs/2306.01492v1
- Date: Fri, 2 Jun 2023 12:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 04:45:00.960209
- Title: Multi-Modal Emotion Recognition for Enhanced Requirements Engineering: A
Novel Approach
- Title(参考訳): 要求工学強化のためのマルチモーダル感情認識:新しいアプローチ
- Authors: Ben Cheng, Chetan Arora, Xiao Liu, Thuong Hoang, Yi Wang, John Grundy
- Abstract要約: 本稿では,要求工学プロセスを強化するためのマルチモーダル感情認識プラットフォーム(MEmoRE)を提案する。
MemoREは最先端の感情認識技術を活用し、表情、発声イントネーション、テキスト感情分析を統合している。
私たちは、より共感的で、効果的で、成功したソフトウェア開発プロセスの道を開くことを目指しています。
- 参考スコア(独自算出の注目度): 12.906871276817775
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Requirements engineering (RE) plays a crucial role in developing software
systems by bridging the gap between stakeholders' needs and system
specifications. However, effective communication and elicitation of stakeholder
requirements can be challenging, as traditional RE methods often overlook
emotional cues. This paper introduces a multi-modal emotion recognition
platform (MEmoRE) to enhance the requirements engineering process by capturing
and analyzing the emotional cues of stakeholders in real-time. MEmoRE leverages
state-of-the-art emotion recognition techniques, integrating facial expression,
vocal intonation, and textual sentiment analysis to comprehensively understand
stakeholder emotions. This multi-modal approach ensures the accurate and timely
detection of emotional cues, enabling requirements engineers to tailor their
elicitation strategies and improve overall communication with stakeholders. We
further intend to employ our platform for later RE stages, such as requirements
reviews and usability testing. By integrating multi-modal emotion recognition
into requirements engineering, we aim to pave the way for more empathetic,
effective, and successful software development processes. We performed a
preliminary evaluation of our platform. This paper reports on the platform
design, preliminary evaluation, and future development plan as an ongoing
project.
- Abstract(参考訳): 要件エンジニアリング(RE)は、ステークホルダのニーズとシステム仕様のギャップを埋めることによって、ソフトウェアシステムの開発において重要な役割を担います。
しかし、従来のRE手法は感情的な手がかりを見落としていることが多いため、効果的なコミュニケーションとステークホルダー要件の活用は困難である。
本稿では,マルチモーダル感情認識プラットフォーム(MEmoRE)を導入し,利害関係者の感情的手がかりをリアルタイムで把握し分析することにより,要求工学プロセスを強化する。
MemoREは最先端の感情認識技術を活用し、表情、発声イントネーション、テキスト感情分析を統合し、ステークホルダーの感情を包括的に理解する。
このマルチモーダルなアプローチは、感情的な手がかりを正確かつタイムリーに検出することを可能にし、要求するエンジニアがその啓発戦略を調整し、ステークホルダーとの全体的なコミュニケーションを改善することができる。
さらに私たちは,要件レビューやユーザビリティテストなど,後続のREステージに当社のプラットフォームを採用するつもりです。
要求工学にマルチモーダル感情認識を統合することで、より共感的で効果的で成功したソフトウェア開発プロセスへの道を開くことを目標としています。
私たちはプラットホームの予備的な評価を行った。
本稿では,現在進行中のプロジェクトとして,プラットフォーム設計,予備評価,今後の開発計画について報告する。
関連論文リスト
- In-Depth Analysis of Emotion Recognition through Knowledge-Based Large Language Models [3.8153944233011385]
本稿では,文脈に基づく感情認識の新たな分野に寄与する。
本稿では,感情認識手法とベイジアンキュー統合を組み合わせたアプローチを提案する。
本手法は,受刑者のジレンマである社会的課題における表情の解釈の文脈で検証する。
論文 参考訳(メタデータ) (2024-07-17T06:39:51Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Emotions in Requirements Engineering: A Systematic Mapping Study [2.534053759586253]
要件エンジニアリング(RE)の目的は、ソフトウェアシステムのステークホルダーの期待と要求が確実に満たされるようにすることだ。
感情的なニーズは、システムの使用時にエンドユーザがどのように感じるべきかを表す感情的な要件として捉えられます。
この研究は、文献を感情的な要求に基づいて探索し、マッピングする必要性によって動機付けられている。
論文 参考訳(メタデータ) (2023-05-25T14:24:36Z) - EmotionIC: emotional inertia and contagion-driven dependency modeling for emotion recognition in conversation [34.24557248359872]
本稿では,ERCタスクに対する感情的慣性・伝染型依存性モデリング手法(EmotionIC)を提案する。
EmotionICは3つの主要コンポーネント、すなわちIDマスク付きマルチヘッド注意(IMMHA)、対話型Gated Recurrent Unit(DiaGRU)、Skip-chain Conditional Random Field(SkipCRF)から構成されている。
実験結果から,提案手法は4つのベンチマークデータセットにおいて,最先端のモデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2023-03-20T13:58:35Z) - Improving Multi-turn Emotional Support Dialogue Generation with
Lookahead Strategy Planning [81.79431311952656]
感情支援のための新しいシステムMultiESCを提案する。
戦略プランニングでは,特定の戦略を使用した後のユーザフィードバックを見積もるルックアヘッドを提案する。
ユーザ状態モデリングにおいて、MultiESCはユーザーの微妙な感情表現を捉え、感情の原因を理解することに重点を置いている。
論文 参考訳(メタデータ) (2022-10-09T12:23:47Z) - A Unified Framework for Emotion Identification and Generation in
Dialogues [5.102770724328495]
本稿では,対話の感情を協調的に識別し,その感情に応じて応答を生成するマルチタスクフレームワークを提案する。
本研究では,BERTをベースとしたネットワークを用いて共感システムを構築し,エンド・ツー・エンドのネットワークを分類と生成損失の両方で訓練する混合目的関数を用いる。
論文 参考訳(メタデータ) (2022-05-31T02:58:49Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。