論文の概要: Exploring Body Texture from mmW Images for Person Recognition
- arxiv url: http://arxiv.org/abs/2203.15618v1
- Date: Sun, 27 Mar 2022 04:49:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:41:07.302445
- Title: Exploring Body Texture from mmW Images for Person Recognition
- Title(参考訳): 人物認識のためのmmW画像からの身体テクスチャ探索
- Authors: E. Gonzalez-Sosa, J. Fierrez, R. Vera-Rodriguez, F. Alonso-Fernandez,
V. M. Patel
- Abstract要約: 個人50名からなるmmW TNOデータベースを用いた実験結果について報告する。
我々は、新しいCNNベースの融合技術を含む、様々なマルチアルゴリズムおよびマルチモーダル手法を解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imaging using millimeter waves (mmWs) has many advantages including the
ability to penetrate obscurants such as clothes and polymers. After having
explored shape information retrieved from mmW images for person recognition, in
this work we aim to gain some insight about the potential of using mmW texture
information for the same task, considering not only the mmW face, but also mmW
torso and mmW wholebody. We report experimental results using the mmW TNO
database consisting of 50 individuals based on both hand-crafted and learned
features from Alexnet and VGG-face pretrained Convolutional Neural Networks
(CNN) models. First, we analyze the individual performance of three mmW body
parts, concluding that: i) mmW torso region is more discriminative than mmW
face and the whole body, ii) CNN features produce better results compared to
hand-crafted features on mmW faces and the entire body, and iii) hand-crafted
features slightly outperform CNN features on mmW torso. In the second part of
this work, we analyze different multi-algorithmic and multi-modal techniques,
including a novel CNN-based fusion technique, improving verification results to
2% EER and identification rank-1 results up to 99%. Comparative analyses with
mmW body shape information and face recognition in the visible and NIR spectral
bands are also reported.
- Abstract(参考訳): ミリ波 (mmWs) を用いたイメージングには, 衣服やポリマーなどの異色物質を透過する能力など多くの利点がある。
本研究は, 人物認識のためのmmW画像から得られる形状情報について検討した後, mmW顔だけでなく, mmW胴体, mmW体全体についても検討し, 同一タスクにmmWテクスチャ情報を使用することの可能性について考察する。
本研究は,alexnetおよびvgg-face pretrained convolutional neural networks (cnn) モデルから得られた手作りおよび学習機能に基づく50名からなるmmw tnoデータベースを用いた実験結果について報告する。
まず,3mmWのボディパーツの個々の性能を解析し,以下の結果を得た。
一)mmW胴体領域は、mmW面及び全身より識別性が高い。
二 CNNの特徴は、mmW顔及び全身に手作りの特徴と比べ、より良い結果をもたらす。
iii)mmw torsoのcnn機能よりも若干優れた手作り機能。
本研究の第2部では,新しいcnnベースの核融合技術,検証結果の2%er化,識別ランク1の最大99%の精度向上など,多言語およびマルチモーダル技術を解析した。
また,視光スペクトル帯とNIRスペクトル帯におけるmmW体形状情報と顔認識との比較分析を行った。
関連論文リスト
- VisualCritic: Making LMMs Perceive Visual Quality Like Humans [65.59779450136399]
広視野画像の主観的品質評価のための最初のLMMであるVisualCriticを提案する。
VisualCriticは、データセット固有の適応操作を必要とせずに、最初からさまざまなデータにまたがって使用することができる。
論文 参考訳(メタデータ) (2024-03-19T15:07:08Z) - One-Shot Learning for Periocular Recognition: Exploring the Effect of
Domain Adaptation and Data Bias on Deep Representations [59.17685450892182]
広範に使用されているCNNモデルにおける深部表現の挙動をワンショット近視認識のための極端データ不足下で検討する。
我々は、バイオメトリックデータセットで訓練されたネットワークを数百万の画像で活用し、最先端の結果を改善した。
SIFTのような従来のアルゴリズムは、限られたデータでCNNより優れている。
論文 参考訳(メタデータ) (2023-07-11T09:10:16Z) - Portuguese Man-of-War Image Classification with Convolutional Neural
Networks [58.720142291102135]
ポルトガルマン・オブ・ウォー(ポルトガル語: Man-of-war、PMW)は、長い触手を持つゼラチン質の生物である。
本稿では,InstagramのソーシャルメディアからPMW画像を認識するための畳み込みニューラルネットワークの利用について報告する。
論文 参考訳(メタデータ) (2022-07-04T03:06:45Z) - Estimation of BMI from Facial Images using Semantic Segmentation based
Region-Aware Pooling [3.889462292853575]
Body-Mass-Index (BMI)は、健康や社会経済的状況などの生活に関する重要な情報を伝達する。
近年の研究では、手作業による幾何学的顔の特徴やBMI予測のための顔レベルの深い畳み込みニューラルネットワークの特徴が採用されている。
異なる顔領域からプールされた深い特徴を利用することを提案する。
論文 参考訳(メタデータ) (2021-04-10T10:53:21Z) - CNN based Multistage Gated Average Fusion (MGAF) for Human Action
Recognition Using Depth and Inertial Sensors [1.52292571922932]
畳み込みニューラルネットワーク(CNN)は、アーキテクチャのすべてのレイヤから機能を抽出し、融合するためのレバレッジを提供する。
我々は,CNNの全層から特徴を抽出し,融合する多段Gated Average Fusion (MGAF) ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T11:49:13Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - Towards Improved Human Action Recognition Using Convolutional Neural
Networks and Multimodal Fusion of Depth and Inertial Sensor Data [1.52292571922932]
本稿では,深度と慣性センサデータの融合によるヒューマンアクション認識(HAR)の精度向上を試みる。
我々は、深度データを逐次フロントビューイメージ(SFI)に変換し、これらの画像上でトレーニング済みのAlexNetを微調整する。
慣性データを信号画像(SI)に変換し、これらの画像上で別の畳み込みニューラルネットワーク(CNN)を訓練する。
論文 参考訳(メタデータ) (2020-08-22T03:41:34Z) - Spectrum Translation for Cross-Spectral Ocular Matching [59.17685450892182]
バイオメトリックスでは、特に眼領域において、クロススペクトル検証が大きな問題となっている。
近赤外画像と視覚光画像のスペクトル変換におけるコンディショナル・ディバイサル・ネットワークの利用について検討した。
論文 参考訳(メタデータ) (2020-02-14T19:30:31Z) - Deep Multi-task Multi-label CNN for Effective Facial Attribute
Classification [53.58763562421771]
DMM-CNN(ディープ・マルチタスク・マルチラベル・CNN)による効果的な顔属性分類(FAC)を提案する。
具体的には、DMM-CNNは、2つの密接に関連するタスク(顔のランドマーク検出とFAC)を共同で最適化し、マルチタスク学習を活用することにより、FACの性能を向上させる。
2つの異なるネットワークアーキテクチャは2つの属性のグループの特徴を抽出するために設計され、トレーニング中に各顔属性に損失重みを自動的に割り当てる新しい動的重み付け方式が提案されている。
論文 参考訳(メタデータ) (2020-02-10T12:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。