論文の概要: Computational efficient deep neural network with difference attention
maps for facial action unit detection
- arxiv url: http://arxiv.org/abs/2011.12082v2
- Date: Fri, 27 Nov 2020 03:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:38:20.484736
- Title: Computational efficient deep neural network with difference attention
maps for facial action unit detection
- Title(参考訳): 顔動作単位検出のための差分注意マップを用いた計算効率の高い深層ニューラルネットワーク
- Authors: Jing Chen, Chenhui Wang, Kejun Wang, Meichen Liu
- Abstract要約: 本稿では,差分画像に基づくCEDNNモデルと空間アテンションマップを提案する。
多くの実験結果から、提案したCEDNNは明らかにdisFA+およびCK+データセットの従来のディープラーニング手法よりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 3.73202122588308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a computational efficient end-to-end training deep
neural network (CEDNN) model and spatial attention maps based on difference
images. Firstly, the difference image is generated by image processing. Then
five binary images of difference images are obtained using different
thresholds, which are used as spatial attention maps. We use group convolution
to reduce model complexity. Skip connection and $\text{1}\times \text{1}$
convolution are used to ensure good performance even if the network model is
not deep. As an input, spatial attention map can be selectively fed into the
input of each block. The feature maps tend to focus on the parts that are
related to the target task better. In addition, we only need to adjust the
parameters of classifier to train different numbers of AU. It can be easily
extended to varying datasets without increasing too much computation. A large
number of experimental results show that the proposed CEDNN is obviously better
than the traditional deep learning method on DISFA+ and CK+ datasets. After
adding spatial attention maps, the result is better than the most advanced AU
detection method. At the same time, the scale of the network is small, the
running speed is fast, and the requirement for experimental equipment is low.
- Abstract(参考訳): 本稿では、差分画像に基づく計算効率のよいエンドツーエンドトレーニング深層ニューラルネットワーク(cednn)モデルと空間注意マップを提案する。
まず、画像処理により差分画像を生成する。
次に、空間的注意マップとして使用される異なるしきい値を用いて、差分画像の5つのバイナリ画像を得る。
モデルの複雑さを減らすためにグループ畳み込みを使用します。
skip connectionと$\text{1}\times \text{1}$ convolutionは、ネットワークモデルが深くない場合でも優れたパフォーマンスを保証するために使用される。
入力として、各ブロックの入力に空間注意マップを選択的に供給することができる。
フィーチャーマップは、ターゲットタスクにもっと関係のある部分にフォーカスする傾向があります。
さらに、異なる数のAUを訓練するために分類器のパラメータを調整する必要がある。
計算量を増やすことなく、さまざまなデータセットに容易に拡張できる。
多くの実験結果から、提案したCEDNNは明らかにdisFA+およびCK+データセットの従来のディープラーニング手法よりも優れていることが示されている。
空間的注意マップを付加すると、最も先進的なAU検出法よりも優れた結果が得られる。
同時に、ネットワークの規模が小さく、走行速度が速く、実験機器の要件も低い。
関連論文リスト
- Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - Unsupervised convolutional neural network fusion approach for change
detection in remote sensing images [1.892026266421264]
我々は、変化検出のための全く教師なし浅層畳み込みニューラルネットワーク(USCNN)融合アプローチを導入する。
我々のモデルには3つの特徴がある: トレーニングプロセス全体は教師なしで行われ、ネットワークアーキテクチャは浅く、目的関数はスパースである。
4つの実リモートセンシングデータセットの実験結果から,提案手法の有効性と有効性が確認された。
論文 参考訳(メタデータ) (2023-11-07T03:10:17Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Scale Attention for Learning Deep Face Representation: A Study Against
Visual Scale Variation [69.45176408639483]
我々はスケール空間理論に頼って凸層を再構築する。
我々はSCale AttentioN Conv Neural Network(textbfSCAN-CNN)という新しいスタイルを構築した。
単発方式として、推論はマルチショット融合よりも効率的である。
論文 参考訳(メタデータ) (2022-09-19T06:35:04Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Towards Dense People Detection with Deep Learning and Depth images [9.376814409561726]
本稿では,1つの深度画像から複数の人物を検出するDNNシステムを提案する。
我々のニューラルネットワークは深度画像を処理し、画像座標の確率マップを出力する。
我々は、この戦略が効果的であることを示し、トレーニング中に使用するものと異なるシーンで動作するように一般化したネットワークを創出する。
論文 参考訳(メタデータ) (2020-07-14T16:43:02Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - On the Texture Bias for Few-Shot CNN Segmentation [21.349705243254423]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクを実行するために形状によって駆動される。
最近の証拠は、CNNのテクスチャバイアスが、大きなラベル付きトレーニングデータセットで学習するときに、より高いパフォーマンスのモデルを提供することを示している。
本稿では,特徴空間内の高周波局所成分を減衰させるために,ガウス差分(DoG)の集合を統合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-09T11:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。