論文の概要: Machine vision detection to daily facial fatigue with a nonlocal 3D
attention network
- arxiv url: http://arxiv.org/abs/2104.10420v1
- Date: Wed, 21 Apr 2021 08:58:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:25:59.433302
- Title: Machine vision detection to daily facial fatigue with a nonlocal 3D
attention network
- Title(参考訳): 非局所的な3Dアテンションネットワークによる日常的顔面疲労のマシンビジョン検出
- Authors: Zeyu Chen, Xinhang Zhang, Juan Li, Jingxuan Ni, Gang Chen, Shaohua
Wang, Fangfang Fan, Changfeng Charles Wang, Xiaotao Li
- Abstract要約: 本稿では,野生動物の顔面疲労状態を反映したDLFD (daily-life fatigue dataset) というデータセットを提案する。
3D-ResNetと非局所的注意メカニズムを用いたフレームワークは、空間的および時間的次元における局所的および長期的特徴の抽出のための訓練であった。
提案フレームワークは,検証セットの平均精度が90.8%,バイナリ分類テストセットが72.5%に達し,他の最先端手法と比較して良好な位置にある。
- 参考スコア(独自算出の注目度): 10.483447243772128
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fatigue detection is valued for people to keep mental health and prevent
safety accidents. However, detecting facial fatigue, especially mild fatigue in
the real world via machine vision is still a challenging issue due to lack of
non-lab dataset and well-defined algorithms. In order to improve the detection
capability on facial fatigue that can be used widely in daily life, this paper
provided an audiovisual dataset named DLFD (daily-life fatigue dataset) which
reflected people's facial fatigue state in the wild. A framework using
3D-ResNet along with non-local attention mechanism was training for extraction
of local and long-range features in spatial and temporal dimensions. Then, a
compacted loss function combining mean squared error and cross-entropy was
designed to predict both continuous and categorical fatigue degrees. Our
proposed framework has reached an average accuracy of 90.8% on validation set
and 72.5% on test set for binary classification, standing a good position
compared to other state-of-the-art methods. The analysis of feature map
visualization revealed that our framework captured facial dynamics and
attempted to build a connection with fatigue state. Our experimental results in
multiple metrics proved that our framework captured some typical, micro and
dynamic facial features along spatiotemporal dimensions, contributing to the
mild fatigue detection in the wild.
- Abstract(参考訳): 疲労検出は、精神の健康を保ち、安全事故を防ぐために重要である。
しかしながら、特に機械ビジョンによる現実世界の軽度の疲労である顔面疲労の検出は、ラベルなしのデータセットやよく定義されたアルゴリズムが欠如しているため、依然として課題である。
日常生活で広く使用できる顔面疲労の検出能力を向上させるため,本研究は,dlfd(daily-life fatigue dataset)というオーディオビジュアルデータセットを提供し,野生の人の顔面疲労状態を反映させた。
3d-resnetと非局所的注意機構を用いた枠組みは,空間的および時間的次元における局所的および長距離的特徴抽出のための訓練であった。
次に, 平均二乗誤差とクロスエントロピーを組み合わせた圧縮損失関数を考案し, 連続的およびカテゴリー的疲労度を予測した。
提案フレームワークは,検証セットの平均精度が90.8%,バイナリ分類テストセットが72.5%に達し,他の最先端手法と比較して良好な位置にある。
特徴地図の可視化分析により, 顔のダイナミックスを捉え, 疲労状態との関係の構築を試みた。
複数の測定値を用いた実験結果から,我々のフレームワークは時空間的次元に沿った典型的なマイクロ・ダイナミックな顔特徴を捉え,野生での軽度疲労検出に寄与した。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - SleepyWheels: An Ensemble Model for Drowsiness Detection leading to
Accident Prevention [0.0]
SleepyWheelsは、顔のランドマークを識別すると同時に、軽量なニューラルネットワークを使用する革命的な方法だ。
このモデルは、ドライバーの眠気に関する特別なデータセットに基づいて訓練され、精度は97%に達する。
論文 参考訳(メタデータ) (2022-11-01T19:36:47Z) - MOS: A Low Latency and Lightweight Framework for Face Detection,
Landmark Localization, and Head Pose Estimation [37.537102697992395]
顔検出,ランドマークの定位,頭部ポーズ推定を同時に行うために,低レイテンシで軽量なネットワークを提案する。
大きな角度の顔のランドマークを見つけることがより困難であるという観察に刺激され、学習を制限するためにポーズロスが提案される。
また,各タスクの重みを自動的に学習するために,不確実なマルチタスク損失を提案する。
論文 参考訳(メタデータ) (2021-10-21T08:05:53Z) - Understanding Cognitive Fatigue from fMRI Scans with Self-supervised
Learning [0.0]
本稿では, 認知疲労の状態を, 不快感から極度の疲労状態まで, 6つのレベルに分けることを提案する。
我々は,空間的特徴抽出に畳み込みニューラルネットワーク(CNN)を用い,4次元fMRIスキャンの時間的モデリングに長寿命メモリ(LSTM)ネットワークを構築した。
本手法は,fMRIデータから認知疲労を解析するための最先端技術を確立し,従来の手法に勝ってこの問題を解決する。
論文 参考訳(メタデータ) (2021-06-28T22:38:51Z) - Progressive Spatio-Temporal Bilinear Network with Monte Carlo Dropout
for Landmark-based Facial Expression Recognition with Uncertainty Estimation [93.73198973454944]
提案手法の性能は, 広く使用されている3つのデータセットで評価される。
ビデオベースの最先端の手法に匹敵するが、複雑さははるかに少ない。
論文 参考訳(メタデータ) (2021-06-08T13:40:30Z) - Spatial-Phase Shallow Learning: Rethinking Face Forgery Detection in
Frequency Domain [88.7339322596758]
本論文では,空間画像と位相スペクトルを組み合わせ,顔の偽造のアップサンプリング成果をキャプチャするSPSL(Spatial-Phase Shallow Learning)法を提案する。
SPSLは、クロスデータセット評価における最先端性能とマルチクラス分類を実現し、単一データセット評価において同等の結果を得ることができる。
論文 参考訳(メタデータ) (2021-03-02T16:45:08Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z) - 3D Human Pose Estimation using Spatio-Temporal Networks with Explicit
Occlusion Training [40.933783830017035]
近年の大きな進歩にもかかわらず、モノラルなタスクから3Dのポーズを推定することは依然として難しい課題である。
頑健な3次元ポーズ推定のための時間的ビデオネットワークを提案する。
本研究では,各フレームに2次元関節やキーポイントの予測,および3次元関節やキーポイントを推定するために,多段階の時間的畳み込みネットワーク(TCN)を適用した。
論文 参考訳(メタデータ) (2020-04-07T09:12:12Z) - TimeConvNets: A Deep Time Windowed Convolution Neural Network Design for
Real-time Video Facial Expression Recognition [93.0013343535411]
本研究では、リアルタイムな映像表情認識を目的とした、新しい時間窓付き畳み込みニューラルネットワーク設計(TimeConvNets)について検討する。
我々は,TimeConvNetsが表情の過度なニュアンスを捕捉し,低い推論時間を維持しながら分類精度を高めることができることを示した。
論文 参考訳(メタデータ) (2020-03-03T20:58:52Z) - Lossless Attention in Convolutional Networks for Facial Expression
Recognition in the Wild [26.10189921938026]
本稿では,畳み込みニューラルネットワーク (CNN) のためのロスレス注意モデル (LLAM) を提案し,顔から注意を意識した特徴を抽出する。
我々は,FG-2020 Affective Behavior Analysis in-the-wild Challengeの7つの基本表現分類に参加する。
そして,本手法をチャレンジでリリースしたAff-Wild2データセット上で検証する。
論文 参考訳(メタデータ) (2020-01-31T14:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。