論文の概要: Developing emotion recognition for video conference software to support
people with autism
- arxiv url: http://arxiv.org/abs/2101.10785v1
- Date: Tue, 26 Jan 2021 13:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 20:06:17.924318
- Title: Developing emotion recognition for video conference software to support
people with autism
- Title(参考訳): 自閉症者を支援するビデオ会議ソフトウェアのための感情認識の開発
- Authors: Marc Franzen, Michael Stephan Gresser, Tobias M\"uller, Prof. Dr.
Sebastian Mauser
- Abstract要約: 我々は,感情を正しく認識できない自閉症者のためのビデオ会議ソフトウェアを用いた感情認識ソフトウェアを開発した。
これは、ビデオストリームから画像を取得し、ニューラルネットワークの助けを借りてその中の感情を検出し、ユーザーに予測を表示することができます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an emotion recognition software for the use with a video
conference software for autistic individuals which are unable to recognize
emotions properly. It can get an image out of the video stream, detect the
emotion in it with the help of a neural network and display the prediction to
the user. The network is trained on facial landmark features. The software is
fully modular to support adaption to different video conference software,
programming languages and implementations.
- Abstract(参考訳): 我々は,感情を正しく認識できない自閉症者のためのビデオ会議ソフトウェアを用いた感情認識ソフトウェアを開発した。
これは、ビデオストリームから画像を取得し、ニューラルネットワークの助けを借りてその中の感情を検出し、ユーザーに予測を表示することができます。
ネットワークは顔のランドマークで訓練されている。
ソフトウェアは完全にモジュール化されており、様々なビデオ会議ソフトウェア、プログラミング言語、実装への適応をサポートする。
関連論文リスト
- Audio-Driven Emotional 3D Talking-Head Generation [47.6666060652434]
本稿では,高精度な感情表現による高忠実・音声駆動型映像像の合成システムを提案する。
本研究では,無声音声入力に応答して自然なアイドル状態(非話者)ビデオを生成するポーズサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T08:23:05Z) - Speech Emotion Recognition Using CNN and Its Use Case in Digital Healthcare [0.0]
人間の感情と感情状態を音声から識別するプロセスは、音声感情認識(SER)として知られている。
私の研究は、畳み込みニューラルネットワーク(CNN)を使って、音声録音と感情を区別し、異なる感情の範囲に応じてラベル付けすることを目指しています。
私は、機械学習手法を用いて、供給された音声ファイルから感情を識別する機械学習モデルを開発した。
論文 参考訳(メタデータ) (2024-06-15T21:33:03Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Leveraging Previous Facial Action Units Knowledge for Emotion
Recognition on Faces [2.4158349218144393]
本稿では,感情認識のための顔行動単位(AU)認識手法を提案する。
この認識はFACS(Facial Action Coding System)に基づいており、機械学習システムによって計算される。
論文 参考訳(メタデータ) (2023-11-20T18:14:53Z) - AHD ConvNet for Speech Emotion Classification [0.0]
本稿では,一般的なCREMA-Dデータセットにおいて,与えられたwav形式の音声ノートから感情を学習するためのデータポイントを用いた新しいメルスペクトル学習手法を提案する。
感情音声認識の課題に対処するために用いられた他のアプローチと比較して、トレーニング時間が短縮された。
論文 参考訳(メタデータ) (2022-06-10T11:57:28Z) - Emotion recognition in talking-face videos using persistent entropy and
neural networks [0.5156484100374059]
私たちは、会話ビデオから感情を認識し、分類するための主要なツールとして、永続的エントロピーとニューラルネットワークを使用します。
ビデオの小さな変化は、署名に小さな変化をもたらすことを証明している。
これらのトポロジカルなシグネチャは、ニューラル・ネットワークに、中立、穏やか、幸せ、悲しみ、怒り、恐怖、嫌悪、驚きの感情を区別するために使用される。
論文 参考訳(メタデータ) (2021-10-26T11:08:56Z) - Emotion Recognition for Healthcare Surveillance Systems Using Neural
Networks: A Survey [8.31246680772592]
本稿では、ニューラルネットワークを用いた感情認識の分野での最近の研究について述べる。
我々は、感情の認識を音声、表情、音声視覚入力から研究することに集中する。
これら3つの感情認識技術は、患者を監視するための医療センターの監視システムとして使用できる。
論文 参考訳(メタデータ) (2021-07-13T11:17:00Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation [65.11858854040543]
本稿では,歩行者間のロボットナビゲーションのための感情予測アルゴリズムProxEmoを提案する。
提案手法は歩行歩行から歩行者の知覚された感情を予測し,感情誘導ナビゲーションに使用する。
論文 参考訳(メタデータ) (2020-03-02T17:47:49Z) - An End-to-End Visual-Audio Attention Network for Emotion Recognition in
User-Generated Videos [64.91614454412257]
畳み込みニューラルネットワーク(CNN)に基づくエンドツーエンドの映像感情認識を提案する。
具体的には,空間的,チャネル的,時間的注意を視覚的に3D CNNに統合し,時間的注意をオーディオ2D CNNに組み込む新しいアーキテクチャである,深層ビジュアル・オーディオ・アテンション・ネットワーク(VAANet)を開発した。
論文 参考訳(メタデータ) (2020-02-12T15:33:59Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。