論文の概要: An adversarial learning framework for preserving users' anonymity in
face-based emotion recognition
- arxiv url: http://arxiv.org/abs/2001.06103v1
- Date: Thu, 16 Jan 2020 22:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 23:38:07.808295
- Title: An adversarial learning framework for preserving users' anonymity in
face-based emotion recognition
- Title(参考訳): 顔に基づく感情認識におけるユーザの匿名性を保つための敵対的学習フレームワーク
- Authors: Vansh Narula, Zhangyang (Atlas) Wang and Theodora Chaspari
- Abstract要約: 本稿では,反復的手順で学習した畳み込みニューラルネットワーク(CNN)アーキテクチャに依存する逆学習フレームワークを提案する。
その結果、提案手法は、感情認識の精度を保ち、顔認証の劣化を抑えるための畳み込み変換を学習できることが示唆された。
- 参考スコア(独自算出の注目度): 6.9581841997309475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image and video-capturing technologies have permeated our every-day life.
Such technologies can continuously monitor individuals' expressions in
real-life settings, affording us new insights into their emotional states and
transitions, thus paving the way to novel well-being and healthcare
applications. Yet, due to the strong privacy concerns, the use of such
technologies is met with strong skepticism, since current face-based emotion
recognition systems relying on deep learning techniques tend to preserve
substantial information related to the identity of the user, apart from the
emotion-specific information. This paper proposes an adversarial learning
framework which relies on a convolutional neural network (CNN) architecture
trained through an iterative procedure for minimizing identity-specific
information and maximizing emotion-dependent information. The proposed approach
is evaluated through emotion classification and face identification metrics,
and is compared against two CNNs, one trained solely for emotion recognition
and the other trained solely for face identification. Experiments are performed
using the Yale Face Dataset and Japanese Female Facial Expression Database.
Results indicate that the proposed approach can learn a convolutional
transformation for preserving emotion recognition accuracy and degrading face
identity recognition, providing a foundation toward privacy-aware emotion
recognition technologies.
- Abstract(参考訳): 画像とビデオのキャプチャ技術は、毎日の生活に浸透している。
このような技術は、実生活環境での個人の表情を継続的に監視し、感情状態や移行に関する新たな洞察を与えてくれます。
しかし、プライバシーの懸念が強いため、現在の顔に基づく感情認識システムは、感情固有の情報とは別に、ユーザのアイデンティティに関連する重要な情報を保存する傾向にあるため、このような技術の使用には懐疑的な見方が強い。
本稿では,畳み込みニューラルネットワーク(convolutional neural network, cnn)アーキテクチャを学習し,個人固有の情報を最小限にし,感情依存情報を最大化する手法を提案する。
提案手法は感情分類と顔識別指標を用いて評価し,感情認識のみを訓練したcnnと顔識別のみを訓練したcnnと比較した。
Yale Face Dataset と Japanese Women Facial Expression Database を用いて実験を行う。
その結果,提案手法は,感情認識精度を保ち,顔認識を劣化させる畳み込み変換を学習し,プライバシを意識した感情認識技術への基礎を提供することができた。
関連論文リスト
- Emotion Detection through Body Gesture and Face [0.0]
このプロジェクトは、非顔の手がかり、特に手、身体のジェスチャー、ジェスチャーに焦点を当てることによる感情認識の課題に対処する。
従来の感情認識システムは、主に表情分析に依存しており、ボディランゲージを通して伝達される豊かな感情情報を無視することが多い。
このプロジェクトの目的は、マシンが人間の感情をより包括的でニュアンスな方法で解釈し、反応する能力を高めることで、感情コンピューティングの分野に貢献することにある。
論文 参考訳(メタデータ) (2024-07-13T15:15:50Z) - Alleviating Catastrophic Forgetting in Facial Expression Recognition with Emotion-Centered Models [49.3179290313959]
感情中心型生成的リプレイ (ECgr) は, 生成的対向ネットワークから合成画像を統合することで, この課題に対処する。
ECgrは、生成された画像の忠実性を保証するために品質保証アルゴリズムを組み込んでいる。
4つの多様な表情データセットに対する実験結果から,擬似リハーサル法により生成されたイメージを組み込むことで,ターゲットとするデータセットとソースデータセットのトレーニングが促進されることが示された。
論文 参考訳(メタデータ) (2024-04-18T15:28:34Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Leveraging Previous Facial Action Units Knowledge for Emotion
Recognition on Faces [2.4158349218144393]
本稿では,感情認識のための顔行動単位(AU)認識手法を提案する。
この認識はFACS(Facial Action Coding System)に基づいており、機械学習システムによって計算される。
論文 参考訳(メタデータ) (2023-11-20T18:14:53Z) - SAFER: Situation Aware Facial Emotion Recognition [0.0]
表情から感情を認識する新しいシステムであるSAFERを提案する。
最先端のディープラーニング技術を使って、顔画像からさまざまな特徴を抽出する。
目に見えない多様な表情に適応でき、現実世界の用途に適している。
論文 参考訳(メタデータ) (2023-06-14T20:42:26Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。