論文の概要: EmoWrite: A Sentiment Analysis-Based Thought to Text Conversion
- arxiv url: http://arxiv.org/abs/2103.02238v1
- Date: Wed, 3 Mar 2021 08:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-09 08:20:32.692662
- Title: EmoWrite: A Sentiment Analysis-Based Thought to Text Conversion
- Title(参考訳): EmoWrite: テキスト変換に対する感性分析に基づく思考
- Authors: A. Shahid (COMSATS University Islamabad, Lahore Campus), I. Raza
(COMSATS University Islamabad, Lahore Campus), S. A. Hussain (COMSATS
University Islamabad, Lahore Campus)
- Abstract要約: EmoWriteは動的キーボードを実装しており、文字の文脈化されている。
このシステムは6.58ワード毎分(WPM)と31.92文字毎分(CPM)で、精度は90.36パーセントである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Brain Computer Interface (BCI) helps in processing and extraction of useful
information from the acquired brain signals having applications in diverse
fields such as military, medicine, neuroscience, and rehabilitation. BCI has
been used to support paralytic patients having speech impediments with severe
disabilities. To help paralytic patients communicate with ease, BCI based
systems convert silent speech (thoughts) to text. However, these systems have
an inconvenient graphical user interface, high latency, limited typing speed,
and low accuracy rate. Apart from these limitations, the existing systems do
not incorporate the inevitable factor of a patient's emotional states and
sentiment analysis. The proposed system EmoWrite implements a dynamic keyboard
with contextualized appearance of characters reducing the traversal time and
improving the utilization of the screen space. The proposed system has been
evaluated and compared with the existing systems for accuracy, convenience,
sentimental analysis, and typing speed. This system results in 6.58 Words Per
Minute (WPM) and 31.92 Characters Per Minute (CPM) with an accuracy of 90.36
percent. EmoWrite also gives remarkable results when it comes to the
integration of emotional states. Its Information Transfer Rate (ITR) is also
high as compared to other systems i.e., 87.55 bits per min with commands and
72.52 bits per min for letters. Furthermore, it provides easy to use interface
with a latency of 2.685 sec.
- Abstract(参考訳): 脳コンピュータインタフェース(BCI)は、軍事、医学、神経科学、リハビリテーションなどの様々な分野に応用された、取得した脳信号から有用な情報を処理および抽出するのに役立つ。
bciは、重度障害を伴う言語障害を持つ麻痺患者の支援に使われている。
麻痺患者のコミュニケーションを容易にするため、bciベースのシステムはサイレントスピーチ(思考)をテキストに変換する。
しかし、これらのシステムには不便なグラフィカルユーザインタフェース、高いレイテンシ、タイピング速度の制限、そして低い精度がある。
これらの制限とは別に、既存のシステムは患者の感情状態や感情分析の必然的な要因を取り入れていない。
提案するemowriteは,文字の文脈的出現によりトラバーサル時間が短縮され,画面空間の利用性が向上した動的キーボードを実装している。
提案システムは, 精度, 利便性, 感情分析, タイピング速度など, 既存のシステムと比較して評価されている。
このシステムは6.58ワード毎分(WPM)と31.92文字毎分(CPM)で、精度は90.36パーセントである。
EmoWriteはまた、感情状態の統合に関しても顕著な結果をもたらす。
インフォメーション転送レート (ITR) は、他のシステムと比較しても高く、命令が1分87.55ビット、文字が72.52ビットである。
さらに、2.685秒のレイテンシで簡単に使えるインターフェースを提供する。
関連論文リスト
- Enhancing AI Assisted Writing with One-Shot Implicit Negative Feedback [6.175028561101999]
Niftyは、テキスト生成プロセスに暗黙のフィードバックを制御的に統合するために、分類器のガイダンスを使用するアプローチである。
また,ルージュ-Lでは最大で34%,正しい意図の生成では89%,人間評価では86%の勝利率を示した。
論文 参考訳(メタデータ) (2024-10-14T18:50:28Z) - EmoBench: Evaluating the Emotional Intelligence of Large Language Models [73.60839120040887]
EmoBenchは、確立された心理学理論に基づいて、マシン感情知能(EI)の包括的な定義を提案するベンチマークである。
EmoBenchには、英語と中国語で400の手作りの質問が含まれている。
以上の結果から,既存の大規模言語モデルのEIと平均的な人間の間には,かなりのギャップがみられ,今後の研究に向けての有望な方向性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-02-19T11:48:09Z) - How are Prompts Different in Terms of Sensitivity? [50.67313477651395]
本稿では,関数の感度に基づく包括的即時解析を提案する。
出力に対する入力トークンの関連性に異なるプロンプトがどう影響するかを実証的に示すために、勾配に基づく唾液度スコアを使用する。
本稿では, 感度推定をペナルティ項として組み込んだ感度認識復号法を標準グリーディ復号法で導入する。
論文 参考訳(メタデータ) (2023-11-13T10:52:01Z) - LDEB -- Label Digitization with Emotion Binarization and Machine
Learning for Emotion Recognition in Conversational Dialogues [0.0]
会話における感情認識(ERC)は、会話AIとその応用の発展に不可欠である。
会話の対話は、各対話が感情の特徴記述子と感情タイプ(またはラベル)の関連を絡めるネストされた感情を描写するユニークな問題を示す。
テキスト正規化と7ビットディジタル符号化技術を用いて、ツイストをアンタングル化するLDEB(Label Digitization with Emotion Binarization)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-03T20:37:46Z) - An Approach for Improving Automatic Mouth Emotion Recognition [1.5293427903448025]
この研究は、畳み込みニューラルネットワーク(CNN)を用いた口検出による自動感情認識技術の提案と試験である。
この技術は、コミュニケーションスキルの問題のある健康障害の人々を支援するために応用される。
論文 参考訳(メタデータ) (2022-12-12T16:17:21Z) - FAF: A novel multimodal emotion recognition approach integrating face,
body and text [13.485538135494153]
我々は、感情認識作業を容易にするために、大規模マルチモーダル感情データセット「HED」を構築した。
認識の精度を高めるため,重要な感情情報の探索に「特徴アフター・フィーチャー」フレームワークが用いられた。
我々は、"HED"データセットの評価に様々なベンチマークを使用し、その性能を本手法と比較した。
論文 参考訳(メタデータ) (2022-11-20T14:43:36Z) - VISTANet: VIsual Spoken Textual Additive Net for Interpretable Multimodal Emotion Recognition [21.247650660908484]
本稿では、VISTANet(Visual Textual Additive Net)というマルチモーダル感情認識システムを提案する。
VISTANetは、早期と後期の融合のハイブリッドを用いて、画像、音声、テキストのモダリティから情報を融合する。
KAAP技術は、特定の感情のクラスを予測するために、各モダリティとそれに対応する特徴の寄与を計算する。
論文 参考訳(メタデータ) (2022-08-24T11:35:51Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。