論文の概要: Towards Privacy-Preserving Affect Recognition: A Two-Level Deep Learning
Architecture
- arxiv url: http://arxiv.org/abs/2111.07344v1
- Date: Sun, 14 Nov 2021 13:52:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 14:33:32.786238
- Title: Towards Privacy-Preserving Affect Recognition: A Two-Level Deep Learning
Architecture
- Title(参考訳): プライバシ保護による影響認識を目指して--2レベルディープラーニングアーキテクチャ
- Authors: Jimiama M. Mase, Natalie Leesakul, Fan Yang, Grazziela P. Figueredo,
Mercedes Torres Torres
- Abstract要約: 本研究では,感情認識のための2段階のディープラーニングアーキテクチャを提案する。
アーキテクチャは、特徴間の時間的関係をキャプチャするリカレントニューラルネットワークで構成されている。
- 参考スコア(独自算出の注目度): 2.9392867898439006
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatically understanding and recognising human affective states using
images and computer vision can improve human-computer and human-robot
interaction. However, privacy has become an issue of great concern, as the
identities of people used to train affective models can be exposed in the
process. For instance, malicious individuals could exploit images from users
and assume their identities. In addition, affect recognition using images can
lead to discriminatory and algorithmic bias, as certain information such as
race, gender, and age could be assumed based on facial features. Possible
solutions to protect the privacy of users and avoid misuse of their identities
are to: (1) extract anonymised facial features, namely action units (AU) from a
database of images, discard the images and use AUs for processing and training,
and (2) federated learning (FL) i.e. process raw images in users' local
machines (local processing) and send the locally trained models to the main
processing machine for aggregation (central processing). In this paper, we
propose a two-level deep learning architecture for affect recognition that uses
AUs in level 1 and FL in level 2 to protect users' identities. The architecture
consists of recurrent neural networks to capture the temporal relationships
amongst the features and predict valence and arousal affective states. In our
experiments, we evaluate the performance of our privacy-preserving architecture
using different variations of recurrent neural networks on RECOLA, a
comprehensive multimodal affective database. Our results show state-of-the-art
performance of $0.426$ for valence and $0.401$ for arousal using the
Concordance Correlation Coefficient evaluation metric, demonstrating the
feasibility of developing models for affect recognition that are both accurate
and ensure privacy.
- Abstract(参考訳): イメージとコンピュータビジョンを用いた人間の感情状態の自動理解と認識は、人間とコンピュータとロボットの相互作用を改善する。
しかし、感情的なモデルを訓練するのに使用される人々の身元が、その過程で明らかになるため、プライバシーは大きな問題となっている。
例えば、悪意のある個人は、ユーザーの画像を悪用し、身元を推定することができる。
さらに、画像を用いた感情認識は、人種、性別、年齢などの特定の情報を顔の特徴に基づいて推定できるため、識別バイアスやアルゴリズムバイアスにつながる可能性がある。
ユーザのプライバシーを保護し、そのアイデンティティの誤用を避けるための可能な解決策は、1)画像データベースから匿名化された顔特徴、すなわちアクションユニット(au)を抽出し、画像を捨てて処理とトレーニングにausを使用する、(2)フェデレート学習(fl)、すなわちユーザのローカルマシン(ローカル処理)で生画像を処理し、ローカルに訓練されたモデルを集約(中央処理)するための主処理マシンに送信する、である。
本稿では,AUをレベル1で,FLをレベル2で使用してユーザの身元を保護する2段階のディープラーニングアーキテクチャを提案する。
アーキテクチャは、特徴間の時間的関係を捕捉し、価と覚醒的感情状態を予測するために、繰り返しニューラルネットワークで構成される。
実験では,汎用的なマルチモーダル感情データベースであるrecola上で,再帰ニューラルネットワークのさまざまなバリエーションを用いて,プライバシ保存アーキテクチャの性能を評価する。
この結果から,コンコーダンス相関係数評価指標を用いて,ヴァレンスで0.426$,覚醒で0.401$の最先端性能を示し,精度とプライバシを両立した感情認識モデルの開発可能性を示す。
関連論文リスト
- Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - FACE-AUDITOR: Data Auditing in Facial Recognition Systems [24.082527732931677]
顔画像を扱うスケーラビリティと能力のために、ショットベースの顔認識システムが注目されている。
顔画像の誤使用を防止するために、簡単なアプローチとして、生の顔画像を共有する前に修正する方法がある。
そこで本研究では,FACE-AUDITORの完全ツールキットを提案する。このツールキットは,少数ショットベースの顔認識モデルに問い合わせ,ユーザの顔画像のいずれかがモデルのトレーニングに使用されているかどうかを判断する。
論文 参考訳(メタデータ) (2023-04-05T23:03:54Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Introducing Representations of Facial Affect in Automated Multimodal
Deception Detection [18.16596562087374]
自動偽造検知システムは、社会の健康、正義、安全を高めることができる。
本稿では,顔認識における顔の感情の次元表現力の新たな解析法を提案する。
私たちは、現実世界の、高額な法廷状況で、真実または偽装的にコミュニケーションする人々のビデオデータセットを使用しました。
論文 参考訳(メタデータ) (2020-08-31T05:12:57Z) - CIAGAN: Conditional Identity Anonymization Generative Adversarial
Networks [12.20367903755194]
CIAGANは条件付き生成対向ネットワークに基づく画像およびビデオの匿名化モデルである。
このモデルでは,高品質な画像や映像を制作しながら,顔や身体の特徴を識別できる。
論文 参考訳(メタデータ) (2020-05-19T15:56:08Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - An adversarial learning framework for preserving users' anonymity in
face-based emotion recognition [6.9581841997309475]
本稿では,反復的手順で学習した畳み込みニューラルネットワーク(CNN)アーキテクチャに依存する逆学習フレームワークを提案する。
その結果、提案手法は、感情認識の精度を保ち、顔認証の劣化を抑えるための畳み込み変換を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-01-16T22:45:52Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。