論文の概要: InMyFace: Inertial and Mechanomyography-Based Sensor Fusion for Wearable
Facial Activity Recognition
- arxiv url: http://arxiv.org/abs/2302.04024v1
- Date: Wed, 8 Feb 2023 12:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:28:43.719172
- Title: InMyFace: Inertial and Mechanomyography-Based Sensor Fusion for Wearable
Facial Activity Recognition
- Title(参考訳): InMyFace: 顔認識のための慣性・メカノノノグラフィに基づくセンサフュージョン
- Authors: Hymalai Bello, Luis Alfredo Sanchez Marin, Sungho Suh, Bo Zhou and
Paul Lukowicz
- Abstract要約: 本研究は、ウェアラブル慣性センサ、平面圧センサ、音響メカノミノグラフィー(筋肉音)の融合に基づく代替ソリューションを提案する。
顔の表情に関連する顔の筋活動を監視するために、センサーをスポーツキャップに入れた。
その結果は、最先端の非カメラベースのソリューションと競合する。
- 参考スコア(独自算出の注目度): 7.421780713537146
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recognizing facial activity is a well-understood (but non-trivial) computer
vision problem. However, reliable solutions require a camera with a good view
of the face, which is often unavailable in wearable settings. Furthermore, in
wearable applications, where systems accompany users throughout their daily
activities, a permanently running camera can be problematic for privacy (and
legal) reasons. This work presents an alternative solution based on the fusion
of wearable inertial sensors, planar pressure sensors, and acoustic
mechanomyography (muscle sounds). The sensors were placed unobtrusively in a
sports cap to monitor facial muscle activities related to facial expressions.
We present our integrated wearable sensor system, describe data fusion and
analysis methods, and evaluate the system in an experiment with thirteen
subjects from different cultural backgrounds (eight countries) and both sexes
(six women and seven men). In a one-model-per-user scheme and using a late
fusion approach, the system yielded an average F1 score of 85.00% for the case
where all sensing modalities are combined. With a cross-user validation and a
one-model-for-all-user scheme, an F1 score of 79.00% was obtained for thirteen
participants (six females and seven males). Moreover, in a hybrid fusion
(cross-user) approach and six classes, an average F1 score of 82.00% was
obtained for eight users. The results are competitive with state-of-the-art
non-camera-based solutions for a cross-user study. In addition, our unique set
of participants demonstrates the inclusiveness and generalizability of the
approach.
- Abstract(参考訳): 顔の活動を認識することは、よく理解されている(しかし自明ではない)コンピュータビジョンの問題である。
しかし、信頼できるソリューションには、顔をよく見るカメラが必要であり、ウェアラブル設定では利用できないことが多い。
さらに、毎日のアクティビティを通じてシステムがユーザに付随するウェアラブルアプリケーションでは、永久に動いているカメラがプライバシー(および合法)の理由で問題となることがある。
本研究は,ウェアラブル慣性センサ,平面圧センサ,音響機械学(筋音)の融合に基づく代替ソリューションを提案する。
顔の表情に関連する顔の筋活動を監視するために、センサーをスポーツキャップに入れた。
本研究では,異なる文化背景(8カ国)と性別(6人の女性と7人の男性)の被験者13名を対象に,統合型ウェアラブルセンサシステムを構築し,データ融合と分析手法について述べる。
ユーザ毎の1モデル方式とレイトフュージョン方式では、全てのセンシングモダリティが組み合わされた場合の平均F1スコアが85.00%となった。
F1スコアは13名(女性6名,男性7名)に対して79.00%であった。
さらに、ハイブリッドフュージョン(クロスユーザー)アプローチと6クラスでは、平均F1スコアは8ユーザに対して82.00%であった。
その結果は、最先端の非カメラベースのソリューションと競合する。
さらに、私たちのユニークな参加者セットは、このアプローチの包括性と一般化性を示しています。
関連論文リスト
- IdentiFace : A VGG Based Multimodal Facial Biometric System [0.0]
アイデンティフェイス(IdentiFace)は、顔認識のコアと、性別、顔の形、感情など、最も重要な生体認証特性を結合した多モード顔バイオメトリックシステムである。
認識問題として、ferETデータベースから収集したデータを用いて、クラス内変動の高い5つのクラスに対して99.2%の精度で検定を行った。
また、有名人の顔形状データセットを用いて、顔形状問題において88.03%の精度を達成できた。
論文 参考訳(メタデータ) (2024-01-02T14:36:28Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Human Attention Detection Using AM-FM Representations [0.0]
論文では、(i)顔の検出、(ii)頭部の背面、(iii)頭部の顔と背面の関節検出、(iv)頭部が左か右かのどちらかについて位相ベースの解を探索する。
提案手法は,Amplitude Modulation- Frequency Modulation (AM-FM) モデルを用いた簡易かつ堅牢な手法の開発に基づいている。
論文 参考訳(メタデータ) (2022-03-09T00:51:37Z) - Dodging Attack Using Carefully Crafted Natural Makeup [42.65417043860506]
本研究では,人体に自然な化粧を施す新しいブラックボックス対向機械学習(AML)攻撃を提案する。
我々は,実世界の20人の参加者を対象に,ArcFace顔認識モデルに対する攻撃について検討した。
デジタルドメインでは、顔認識システムは全ての参加者を特定することができず、物理ドメインでは、顔認識システムはわずか1.22%のフレームで参加者を識別することができた。
論文 参考訳(メタデータ) (2021-09-14T06:27:14Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - AdaFuse: Adaptive Multiview Fusion for Accurate Human Pose Estimation in
the Wild [77.43884383743872]
本稿では,アダプティブなマルチビュー融合手法であるAdaFuseについて述べる。
我々は、Human3.6M、Total Capture、CMU Panopticの3つの公開データセットに対するアプローチを広く評価した。
また,大規模合成データセットOcclusion-Personを作成し,咬合関節の数値評価を行う。
論文 参考訳(メタデータ) (2020-10-26T03:19:46Z) - Group-Level Emotion Recognition Using a Unimodal Privacy-Safe
Non-Individual Approach [0.0]
本稿は、Emotion Recognition in the Wild (EmotiW) Challenge 2020 1における、オーディオビデオグループ感情認識サブタスクに対する、プライバシー保護と非個人的提案について紹介する。
論文 参考訳(メタデータ) (2020-09-15T12:25:33Z) - Introducing Representations of Facial Affect in Automated Multimodal
Deception Detection [18.16596562087374]
自動偽造検知システムは、社会の健康、正義、安全を高めることができる。
本稿では,顔認識における顔の感情の次元表現力の新たな解析法を提案する。
私たちは、現実世界の、高額な法廷状況で、真実または偽装的にコミュニケーションする人々のビデオデータセットを使用しました。
論文 参考訳(メタデータ) (2020-08-31T05:12:57Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。