論文の概要: A Deep Learning System for Sentiment Analysis of Service Calls
- arxiv url: http://arxiv.org/abs/2004.10320v1
- Date: Tue, 21 Apr 2020 22:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:55:55.216121
- Title: A Deep Learning System for Sentiment Analysis of Service Calls
- Title(参考訳): サービスコールの感性分析のための深層学習システム
- Authors: Yanan Jia and Sony SungChu
- Abstract要約: 人工知能(AI)の発展には感性分析が不可欠である
本稿では,実世界の多人数会話に対して感情分析パイプラインを最初に実施する。
音源情報から抽出した音響的特徴と言語的特徴に基づいて,新たな音声感情認識フレームワークを構築する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentiment analysis is crucial for the advancement of artificial intelligence
(AI). Sentiment understanding can help AI to replicate human language and
discourse. Studying the formation and response of sentiment state from
well-trained Customer Service Representatives (CSRs) can help make the
interaction between humans and AI more intelligent. In this paper, a sentiment
analysis pipeline is first carried out with respect to real-world multi-party
conversations - that is, service calls. Based on the acoustic and linguistic
features extracted from the source information, a novel aggregated method for
voice sentiment recognition framework is built. Each party's sentiment pattern
during the communication is investigated along with the interaction sentiment
pattern between all parties.
- Abstract(参考訳): 感覚分析は人工知能(AI)の発展に不可欠である。
感覚理解は、AIが人間の言語と会話を再現するのに役立ちます。
十分に訓練された顧客サービス代表者(CSR)から感情状態の生成と反応を研究することは、人間とAIの相互作用をよりインテリジェントにするのに役立つ。
本稿では,実世界の多人数会話,すなわちサービスコールに関して,感情分析パイプラインを最初に実施する。
音源情報から抽出した音響的・言語的特徴に基づき、音声感情認識フレームワークのための新しい集計手法を構築した。
コミュニケーション中の各当事者の感情パターンを、すべての当事者間の対話感情パターンとともに検討する。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Rational Sensibility: LLM Enhanced Empathetic Response Generation Guided by Self-presentation Theory [8.439724621886779]
LLM(Large Language Models)の開発は、人間中心の人工知能(AGI)に希望の光を与えている。
共感は人間にとって重要な感情的属性として機能し、人間中心のAGIにおいて不定の役割を果たす。
本稿では,社会学における自己表現理論にインスパイアされた革新的なエンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2023-12-14T07:38:12Z) - Improving Empathetic Dialogue Generation by Dynamically Infusing
Commonsense Knowledge [39.536604198392375]
共感的な会話では、個人は他人に対する共感を表現する。
これまでの研究は主に、話者の感情を利用して共感的な反応を生み出すことに焦点を当ててきた。
本稿では,コモンセンス知識選択のための適応モジュールを組み込んだ共感応答生成手法を提案する。
論文 参考訳(メタデータ) (2023-05-24T10:25:12Z) - Accurate Emotion Strength Assessment for Seen and Unseen Speech Based on
Data-Driven Deep Learning [70.30713251031052]
本研究では,データ駆動型深層学習モデル,すなわちSenseNetを提案する。
実験の結果,提案した強度ネットの予測感情強度は,目視と目視の両方の真理値と高い相関性を示した。
論文 参考訳(メタデータ) (2022-06-15T01:25:32Z) - Human-AI Collaboration Enables More Empathic Conversations in Text-based
Peer-to-Peer Mental Health Support [10.743204843534512]
AI-in-the-loopエージェントであるHayleyを開発した。このエージェントは、サポートを提供する参加者(ピアサポーター)が助けを求める参加者(フォスター支援者)に対して共感的に反応するのを助けるために、ジャスト・イン・タイムフィードバックを提供する。
我々の人間とAIのコラボレーションアプローチは、ピア間での会話の共感を19.60%増加させます。
支援の難しさを自認するピアサポーターのサブサンプルでは,38.88%の共感が増大している。
論文 参考訳(メタデータ) (2022-03-28T23:37:08Z) - Neural Approaches to Conversational Information Retrieval [94.77863916314979]
会話情報検索(CIR)システムは、会話インタフェースを備えた情報検索(IR)システムである。
近年のディープラーニングの進歩により、自然言語処理(NLP)と会話型AIが大幅に改善されている。
この本は、ここ数年で開発された神経アプローチに焦点を当てた、CIRの最近の進歩を調査します。
論文 参考訳(メタデータ) (2022-01-13T19:04:59Z) - Building Human-like Communicative Intelligence: A Grounded Perspective [1.0152838128195465]
言語学習における驚くべき進歩の後、AIシステムは人間のコミュニケーション能力の重要な側面を反映しない天井に近づいたようだ。
本稿は、ナチビストと象徴的パラダイムに基づく認知にインスパイアされたAIの方向性には、現代AIの進歩を導くために必要なサブストラテジと具体性がないことを示唆する。
本稿では,「地下」言語知能構築のための具体的かつ実装可能なコンポーネントのリストを提案する。
論文 参考訳(メタデータ) (2022-01-02T01:43:24Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z) - BiERU: Bidirectional Emotional Recurrent Unit for Conversational
Sentiment Analysis [18.1320976106637]
会話感情分析と単文感情分析の主な違いは、文脈情報の存在である。
既存のアプローチでは、会話内の異なるパーティを区別し、コンテキスト情報をモデル化するために複雑なディープラーニング構造を採用している。
本稿では,会話感情分析のための双方向感情的反復単位という,高速でコンパクトでパラメータ効率のよい非依存フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-31T11:13:13Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。