論文の概要: Lie-Sensor: A Live Emotion Verifier or a Licensor for Chat Applications
using Emotional Intelligence
- arxiv url: http://arxiv.org/abs/2102.11318v1
- Date: Thu, 11 Feb 2021 02:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 05:53:31.772481
- Title: Lie-Sensor: A Live Emotion Verifier or a Licensor for Chat Applications
using Emotional Intelligence
- Title(参考訳): Lie-Sensor:感情知を利用したチャットアプリケーションのためのライブ感情検証装置
- Authors: Falguni Patel, NirmalKumar Patel, Santosh Kumar Bharti
- Abstract要約: ライブ感情分析と検証は、ライブチャットで苦情を申し立てた詐欺を無効化します。
この感情的な人工知能検証の背後にある主なコンセプトは、メッセージのアカウンタビリティをライセンスまたは拒否することです。
感情検出のために, miniXceptionモデルを用いたConvolutional Neural Network (CNN)を展開した。
テキスト予測では、サポートベクターマシン(SVM)自然言語処理確率を選択します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Veracity is an essential key in research and development of innovative
products. Live Emotion analysis and verification nullify deceit made to
complainers on live chat, corroborate messages of both ends in messaging apps
and promote an honest conversation between users. The main concept behind this
emotion artificial intelligent verifier is to license or decline message
accountability by comparing variegated emotions of chat app users recognized
through facial expressions and text prediction. In this paper, a proposed
emotion intelligent live detector acts as an honest arbiter who distributes
facial emotions into labels namely, Happiness, Sadness, Surprise, and Hate.
Further, it separately predicts a label of messages through text
classification. Finally, it compares both labels and declares the message as a
fraud or a bonafide. For emotion detection, we deployed Convolutional Neural
Network (CNN) using a miniXception model and for text prediction, we selected
Support Vector Machine (SVM) natural language processing probability classifier
due to receiving the best accuracy on training dataset after applying Support
Vector Machine (SVM), Random Forest Classifier, Naive Bayes Classifier, and
Logistic regression.
- Abstract(参考訳): veracityは、革新的な製品の研究と開発における重要な鍵である。
ライブ感情分析と検証は、ライブチャットの不満を解消し、メッセージングアプリの両端のメッセージをコラボレートし、ユーザー間の正直な会話を促進する。
この感情の背後にある主要な概念は、表情とテキストの予測によって認識されるチャットアプリのさまざまな感情を比較することによって、メッセージ説明責任をライセンスまたは低下させることである。
本稿では,提案する感情知性ライブ検出器が,幸福,悲しみ,驚き,憎しみというラベルに表情の感情を分配する正直なアービターとして機能する。
さらに、テキスト分類によってメッセージのラベルを別々に予測する。
最後に、両方のラベルを比較し、メッセージを詐欺またはボナフィドとして宣言する。
感情検出には,最小知覚モデルを用いて畳み込みニューラルネットワーク(cnn)を展開し,テキスト予測のためにサポートベクターマシン(svm)の自然言語処理確率分類器を,サポートベクターマシン(svm),ランダムフォレスト分類器(random forest classifier),ナイーブベイズ分類器(naive bayes classifier),ロジスティック回帰(logistic regression)を適用した。
関連論文リスト
- Improving Speech-based Emotion Recognition with Contextual Utterance Analysis and LLMs [2.8728982844941178]
音声感情認識(SER)は、音声言語から感情状態を特定することに焦点を当てている。
データ信頼性を確保するために、まず利用可能なすべての書き起こしを改良する新しいアプローチを提案する。
次に、各会話をより小さな対話に分割し、これらの対話を文脈として使用し、対話内のターゲット発話の感情を予測する。
論文 参考訳(メタデータ) (2024-10-27T04:23:34Z) - Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - Utilizing Speech Emotion Recognition and Recommender Systems for
Negative Emotion Handling in Therapy Chatbots [0.0]
本稿では,ユーザの感情を理解し,人間のような共感を与えることのできる,聴覚認知によるチャットボットのセラピーを強化するアプローチを提案する。
提案手法は,CNNモデルとShEMOデータセットを用いた音声感情認識(SER)技術を含む。
より没入的で共感的なユーザエクスペリエンスを実現するため、GlowTTSと呼ばれるテキスト音声モデルを統合する。
論文 参考訳(メタデータ) (2023-11-18T16:35:55Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - WEARS: Wearable Emotion AI with Real-time Sensor data [0.8740570557632509]
スマートウォッチセンサを用いてユーザの感情を予測するシステムを提案する。
英語と地域語を併用した動画をリアルタイムに収集する枠組みを設計する。
また、心拍数、加速度計、ジャイロセンサーデータなどの特徴が気分に与える影響について、アブレーション調査を行った。
論文 参考訳(メタデータ) (2023-08-22T11:03:00Z) - Accurate Emotion Strength Assessment for Seen and Unseen Speech Based on
Data-Driven Deep Learning [70.30713251031052]
本研究では,データ駆動型深層学習モデル,すなわちSenseNetを提案する。
実験の結果,提案した強度ネットの予測感情強度は,目視と目視の両方の真理値と高い相関性を示した。
論文 参考訳(メタデータ) (2022-06-15T01:25:32Z) - Emotion-Aware Transformer Encoder for Empathetic Dialogue Generation [6.557082555839738]
ユーザの発話中の感情的商をキャプチャする感情認識型トランスフォーマーエンコーダを提案する。
感情検知モジュールは、初期段階におけるユーザの感情状態を決定する。
感情埋め込みによる単語埋め込みの追加と正規化を行う新しいトランスフォーマーエンコーダを提案する。
論文 参考訳(メタデータ) (2022-04-24T17:05:36Z) - Chat-Capsule: A Hierarchical Capsule for Dialog-level Emotion Analysis [70.98130990040228]
本稿では,発話レベルと対話レベルの両方の感情とその相互関係をモデル化したコンテキストベースの階層的注意カプセル(Chat-Capsule)モデルを提案する。
Eコマースプラットフォームの顧客サポートから収集したダイアログデータセットでは,ユーザの満足度や感情曲線のカテゴリも予測できる。
論文 参考訳(メタデータ) (2022-03-23T08:04:30Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - AdCOFE: Advanced Contextual Feature Extraction in Conversations for
emotion classification [0.29360071145551075]
提案したAdCOFE(Advanced Contextual Feature extract)モデルはこれらの問題に対処する。
会話データセットにおける感情認識の実験は、AdCOFEが会話中の感情のキャプチャに有益であることを示しています。
論文 参考訳(メタデータ) (2021-04-09T17:58:19Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。