論文の概要: Preserving Privacy in Human-Motion Affect Recognition
- arxiv url: http://arxiv.org/abs/2105.03958v1
- Date: Sun, 9 May 2021 15:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 05:41:26.277858
- Title: Preserving Privacy in Human-Motion Affect Recognition
- Title(参考訳): ヒューマンモーション感情認識におけるプライバシ保護
- Authors: Matthew Malek-Podjaski, Fani Deligianni
- Abstract要約: 本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
- 参考スコア(独自算出の注目度): 4.753703852165805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human motion is a biomarker used extensively in clinical analysis to monitor
the progression of neurological diseases and mood disorders. Since perceptions
of emotions are also interleaved with body posture and movements, emotion
recognition from human gait can be used to quantitatively monitor mood changes
that are often related to neurological disorders. Many existing solutions often
use shallow machine learning models with raw positional data or manually
extracted features to achieve this. However, gait is composed of many highly
expressive characteristics that can be used to identify human subjects, and
most solutions fail to address this, disregarding the subject's privacy. This
work evaluates the effectiveness of existing methods at recognising emotions
using both 3D temporal joint signals and manually extracted features. We also
show that this data can easily be exploited to expose a subject's identity.
Therefore to this end, we propose a cross-subject transfer learning technique
for training a multi-encoder autoencoder deep neural network to learn
disentangled latent representations of human motion features. By disentangling
subject biometrics from the gait data, we show that the subjects privacy is
preserved while the affect recognition performance outperforms traditional
methods.
- Abstract(参考訳): ヒトの運動は、神経疾患や気分障害の進行を監視するために臨床分析で広く使用されるバイオマーカーである。
感情の知覚は身体の姿勢や運動と連動するので、人間の歩行からの感情認識は、しばしば神経疾患と関連する気分変化を定量的に監視するために用いられる。
既存のソリューションの多くは、生の位置データの浅い機械学習モデルや手動で抽出した特徴を使ってこれを実現する。
しかし、歩留まりは、人間の対象を特定するのに使える多くの非常に表現力のある特徴で構成されており、ほとんどのソリューションは、被験者のプライバシーを無視して、この問題に対処することができない。
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
また,このデータは,被検者の身元を露呈するために容易に活用できることを示す。
そこで本研究では,マルチエンコーダ・オートエンコーダ・ディープニューラルネットワークを訓練し,人間の動作特徴の非絡み合った潜在表現を学習するためのクロスオブジェクトトランスファー学習手法を提案する。
歩行データから対象バイオメトリックスを分離することで,対象のプライバシが保持され,影響認識性能が従来の手法を上回っていることを示す。
関連論文リスト
- Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Emotion Recognition from the perspective of Activity Recognition [0.0]
人間の感情状態、行動、反応を現実世界の環境に適応させることは、潜伏した連続した次元を用いて達成できる。
感情認識システムが現実のモバイルおよびコンピューティングデバイスにデプロイされ統合されるためには、世界中の収集されたデータを考慮する必要がある。
本稿では,注目機構を備えた新しい3ストリームエンドツーエンドのディープラーニング回帰パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-24T18:53:57Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Impact of multiple modalities on emotion recognition: investigation into
3d facial landmarks, action units, and physiological data [4.617405932149653]
感情認識における3次元顔データ,行動単位,生理的データの解析を行った。
分析の結果,3次元顔のランドマークと生理的データの両方が表情・感情認識に有効であることが示唆された。
一方、アクションユニットは、他のモダリティと融合した場合、感情認識に肯定的な影響を与える可能性があるが、この結果から、それらを用いて感情を検出することは困難であることが示唆された。
論文 参考訳(メタデータ) (2020-05-17T18:59:57Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。