論文の概要: Generating near-infrared facial expression datasets with dimensional
affect labels
- arxiv url: http://arxiv.org/abs/2206.13887v1
- Date: Tue, 28 Jun 2022 11:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:35:07.934213
- Title: Generating near-infrared facial expression datasets with dimensional
affect labels
- Title(参考訳): 次元的影響ラベルを用いた近赤外表情データセットの生成
- Authors: Calvin Chen, Stefan Winkler
- Abstract要約: 我々は,NIR画像データセットを次元的感情ラベルで作成するための2つの補完的データ拡張手法を提案する。
実験の結果,これらの生成したNIRデータセットは,データ品質とベースライン予測性能の点で,既存のデータセットに匹敵することがわかった。
- 参考スコア(独自算出の注目度): 2.367786892039871
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Facial expression analysis has long been an active research area of computer
vision. Traditional methods mainly analyse images for prototypical discrete
emotions; as a result, they do not provide an accurate depiction of the complex
emotional states in humans. Furthermore, illumination variance remains a
challenge for face analysis in the visible light spectrum. To address these
issues, we propose using a dimensional model based on valence and arousal to
represent a wider range of emotions, in combination with near infra-red (NIR)
imagery, which is more robust to illumination changes. Since there are no
existing NIR facial expression datasets with valence-arousal labels available,
we present two complementary data augmentation methods (face morphing and
CycleGAN approach) to create NIR image datasets with dimensional emotion labels
from existing categorical and/or visible-light datasets. Our experiments show
that these generated NIR datasets are comparable to existing datasets in terms
of data quality and baseline prediction performance.
- Abstract(参考訳): 顔の表情分析はコンピュータビジョンの活発な研究領域である。
伝統的な方法は、主に原型的な離散的な感情のイメージを分析し、その結果、人間の複雑な感情状態を正確に描写することができない。
さらに、照明のばらつきは可視光スペクトルにおける顔分析の課題である。
これらの問題に対処するために,valence と arousal に基づく次元モデルを用いて,近赤外線 (nir) 画像と組み合わせ,より広い範囲の感情を表現することを提案する。
NIRの表情データセットに有意な有意なラベルが付けられていないため、既存のカテゴリーおよび/または可視光のデータセットから次元的感情ラベルを持つNIR画像データセットを作成するために、2つの補完的なデータ拡張方法(顔モーフィングとCycleGANアプローチ)を提案する。
実験の結果,これらの生成したNIRデータセットは,データ品質とベースライン予測性能の点で,既存のデータセットに匹敵することがわかった。
関連論文リスト
- GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross
Appearance-Edge Learning [49.93362169016503]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Multi-Energy Guided Image Translation with Stochastic Differential
Equations for Near-Infrared Facial Expression Recognition [32.34873680472637]
小型NIRデータに収まる不均一なモダリティ間での顔表現を変換するNIR-SDEを提案する。
NFER-SDEはNIR FERの性能を大幅に改善し、2つの利用可能なNIR FERデータセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-10T15:17:42Z) - Hypergraph-Guided Disentangled Spectrum Transformer Networks for
Near-Infrared Facial Expression Recognition [31.783671943393344]
近赤外顔表情変換器(NFER-Former)を提案する。
NFER-Formerは、入力画像から表現情報とスペクトル情報を切り離して、スペクトル変動の干渉なく表現特徴を抽出する。
我々は、NFER-Formerの効率をよりよく評価するために、360個の被験者を含む大規模なNIR-VIS顔表現データセットを構築した。
論文 参考訳(メタデータ) (2023-12-10T15:15:50Z) - Image complexity based fMRI-BOLD visual network categorization across
visual datasets using topological descriptors and deep-hybrid learning [3.522950356329991]
本研究の目的は,視覚的データセットと異なる視覚刺激に応答して,ネットワークトポロジがどう異なるかを検討することである。
これを実現するために、COCO、ImageNet、SUNを表す視覚ネットワーク毎に0次元および1次元の永続図を演算する。
抽出したK平均クラスター特徴は、これらの視覚ネットワークの分類において90%-95%の範囲で精度の高い新しいディープハイブリッドモデルに供給される。
論文 参考訳(メタデータ) (2023-11-03T14:05:57Z) - Neuromorphic Event-based Facial Expression Recognition [17.72933597458857]
本稿では,ニューロモルフィック事象に基づく表情認識のためのデータセットNEFERを提案する。
NEFERは、ペア化されたRGBと、それぞれの感情でラベル付けされた人間の顔を表すイベントビデオで構成されている。
イベントベースアプローチの認識精度を2倍にし, 高速かつ検出し難い表現を解析するためのニューロモルフィックアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2023-04-13T09:02:10Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Physically-Based Face Rendering for NIR-VIS Face Recognition [165.54414962403555]
近赤外(NIR)と可視(VIS)の顔マッチングは、大きなドメインギャップのために困難である。
NIR-VIS対顔画像生成のための新しい手法を提案する。
アイデンティティ特徴学習を容易にするために,IDentityに基づく最大平均離散性(ID-MMD)損失を提案する。
論文 参考訳(メタデータ) (2022-11-11T18:48:16Z) - A Synthesis-Based Approach for Thermal-to-Visible Face Verification [105.63410428506536]
本稿では,ARL-VTFおよびTUFTSマルチスペクトル顔データセット上での最先端性能を実現するアルゴリズムを提案する。
MILAB-VTF(B)も提案する。
論文 参考訳(メタデータ) (2021-08-21T17:59:56Z) - A Large-Scale, Time-Synchronized Visible and Thermal Face Dataset [62.193924313292875]
DEVCOM Army Research Laboratory Visible-Thermal Faceデータセット(ARL-VTF)を発表します。
395人の被験者から50万枚以上の画像が得られたARL-VTFデータセットは、これまでで最大の可視画像とサーマルフェイス画像の収集データだ。
本論文では,ALL-VTFデータセットを用いたサーマルフェースランドマーク検出とサーマル・トゥ・ヴィジブルフェース検証のベンチマーク結果と分析について述べる。
論文 参考訳(メタデータ) (2021-01-07T17:17:12Z) - Multi-Scale Thermal to Visible Face Verification via Attribute Guided
Synthesis [55.29770222566124]
可視画像から抽出した属性を用いて、熱画像から属性保存された可視画像を合成し、クロスモーダルマッチングを行う。
抽出した属性によって導かれる熱画像から可視像を合成するために, 新規なマルチスケールジェネレータを提案する。
事前訓練されたVGG-Faceネットワークを利用して、合成画像と入力可視画像から特徴を抽出し、検証を行う。
論文 参考訳(メタデータ) (2020-04-20T01:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。