論文の概要: Emotion Recognition From Gait Analyses: Current Research and Future
Directions
- arxiv url: http://arxiv.org/abs/2003.11461v4
- Date: Sat, 16 Jul 2022 02:18:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:30:20.003623
- Title: Emotion Recognition From Gait Analyses: Current Research and Future
Directions
- Title(参考訳): ゲイト分析による感情認識の現状と今後の方向性
- Authors: Shihao Xu, Jing Fang, Xiping Hu, Edith Ngai, Wei Wang, Yi Guo, Victor
C.M. Leung
- Abstract要約: 歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
- 参考スコア(独自算出の注目度): 48.93172413752614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human gait refers to a daily motion that represents not only mobility, but it
can also be used to identify the walker by either human observers or computers.
Recent studies reveal that gait even conveys information about the walker's
emotion. Individuals in different emotion states may show different gait
patterns. The mapping between various emotions and gait patterns provides a new
source for automated emotion recognition. Compared to traditional emotion
detection biometrics, such as facial expression, speech and physiological
parameters, gait is remotely observable, more difficult to imitate, and
requires less cooperation from the subject. These advantages make gait a
promising source for emotion detection. This article reviews current research
on gait-based emotion detection, particularly on how gait parameters can be
affected by different emotion states and how the emotion states can be
recognized through distinct gait patterns. We focus on the detailed methods and
techniques applied in the whole process of emotion recognition: data
collection, preprocessing, and classification. At last, we discuss possible
future developments of efficient and effective gait-based emotion recognition
using the state of the art techniques on intelligent computation and big data.
- Abstract(参考訳): ヒューマン・ゲイト(Human gait)とは、移動性を表すだけでなく、人間の観察者やコンピュータによって歩行者を特定するためにも用いられる。
最近の研究では、歩行はウォーカーの感情に関する情報を伝えることさえある。
異なる感情状態の個人は異なる歩行パターンを示すことがある。
さまざまな感情と歩行パターンのマッピングは、感情の自動認識のための新しいソースを提供する。
表情、発話、生理的パラメータなどの従来の感情検出バイオメトリックスと比較して、歩行は遠隔で観察可能であり、模倣が難しく、被験者との協力も少ない。
これらの利点は、歩行を感情検出の有望な情報源にする。
本稿では,歩行に基づく感情検出に関する最近の研究,特に歩行パラメータが異なる感情状態によってどのように影響を受けるか,感情状態が異なる歩行パターンによってどのように認識されるかについて概説する。
本稿では,データ収集,前処理,分類といった感情認識のプロセス全体に適用される詳細な手法と手法に焦点を当てる。
最後に,知的計算とビッグデータの最先端技術を用いて,効率的な歩行に基づく感情認識の可能性について論じる。
関連論文リスト
- Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Emotion Recognition for Healthcare Surveillance Systems Using Neural
Networks: A Survey [8.31246680772592]
本稿では、ニューラルネットワークを用いた感情認識の分野での最近の研究について述べる。
我々は、感情の認識を音声、表情、音声視覚入力から研究することに集中する。
これら3つの感情認識技術は、患者を監視するための医療センターの監視システムとして使用できる。
論文 参考訳(メタデータ) (2021-07-13T11:17:00Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Temporal aggregation of audio-visual modalities for emotion recognition [0.5352699766206808]
本研究では,時間的オフセットの異なる時間的オフセットと時間的ウィンドウからの音声・視覚的モダリティを組み合わせた感情認識のためのマルチモーダル融合手法を提案する。
提案手法は,文献と人間の精度評価から,他の手法よりも優れている。
論文 参考訳(メタデータ) (2020-07-08T18:44:15Z) - Impact of multiple modalities on emotion recognition: investigation into
3d facial landmarks, action units, and physiological data [4.617405932149653]
感情認識における3次元顔データ,行動単位,生理的データの解析を行った。
分析の結果,3次元顔のランドマークと生理的データの両方が表情・感情認識に有効であることが示唆された。
一方、アクションユニットは、他のモダリティと融合した場合、感情認識に肯定的な影響を与える可能性があるが、この結果から、それらを用いて感情を検出することは困難であることが示唆された。
論文 参考訳(メタデータ) (2020-05-17T18:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。