論文の概要: GeoConv: Geodesic Guided Convolution for Facial Action Unit Recognition
- arxiv url: http://arxiv.org/abs/2003.03055v1
- Date: Fri, 6 Mar 2020 07:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:30:23.611154
- Title: GeoConv: Geodesic Guided Convolution for Facial Action Unit Recognition
- Title(参考訳): GeoConv: 顔行動単位認識のための測地ガイド付き畳み込み
- Authors: Yuedong Chen, Guoxian Song, Zhiwen Shao, Jianfei Cai, Tat-Jen Cham,
Jianming Zheng
- Abstract要約: AU認識のための新しい測地ガイド型畳み込み(GeoConv)を提案する。
我々はさらに、AU認識のためのGeoCNNというエンドツーエンドのトレーニング可能なフレームワークを開発した。
- 参考スコア(独自算出の注目度): 43.22337514214676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic facial action unit (AU) recognition has attracted great attention
but still remains a challenging task, as subtle changes of local facial muscles
are difficult to thoroughly capture. Most existing AU recognition approaches
leverage geometry information in a straightforward 2D or 3D manner, which
either ignore 3D manifold information or suffer from high computational costs.
In this paper, we propose a novel geodesic guided convolution (GeoConv) for AU
recognition by embedding 3D manifold information into 2D convolutions.
Specifically, the kernel of GeoConv is weighted by our introduced geodesic
weights, which are negatively correlated to geodesic distances on a coarsely
reconstructed 3D face model. Moreover, based on GeoConv, we further develop an
end-to-end trainable framework named GeoCNN for AU recognition. Extensive
experiments on BP4D and DISFA benchmarks show that our approach significantly
outperforms the state-of-the-art AU recognition methods.
- Abstract(参考訳): AU(Automatic Face Action Unit)の認識は注目されているが、局所的な顔面筋の微妙な変化が完全に捉えにくいため、依然として困難な課題である。
既存のau認識手法の多くは、3d多様体情報を無視するか、高い計算コストに苦しむ2dまたは3d方法で幾何学情報を活用する。
本稿では,3次元多様体情報を2次元畳み込みに埋め込み,AU認識のための新しい測地案内畳み込み(GeoConv)を提案する。
特に、geoconvの核は、粗く再構成された3d顔モデル上の測地線距離と負の相関を持つ、導入された測地線重みによって重み付けされる。
さらに,GeoConvに基づいて,AU認識のためのGeoCNNというエンドツーエンドのトレーニング可能なフレームワークをさらに開発する。
BP4D と DISFA のベンチマークによる大規模な実験により,我々の手法は最先端の AU 認識法よりも優れていた。
関連論文リスト
- NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - NeuroGF: A Neural Representation for Fast Geodesic Distance and Path
Queries [77.04220651098723]
本稿では,ニューラル暗黙関数を用いた3次元メッシュモデル上での測地線表現の試みについて述べる。
具体的には、与えられたメッシュの全対測地線を表現するために学習されたニューロ測地場(NeuroGF)を紹介する。
NeuroGFは、単一ソースのオールデスティネーション(SSAD)とポイント・ツー・ポイントの測地学を解く上で、非常に優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T13:32:21Z) - Cross-Dimensional Refined Learning for Real-Time 3D Visual Perception
from Monocular Video [2.2299983745857896]
本稿では3次元シーンの幾何学的構造と意味的ラベルを協調的に知覚する新しいリアルタイム能動的学習法を提案する。
本稿では,3次元メッシュと3次元セマンティックラベリングの両方をリアルタイムに抽出する,エンドツーエンドのクロスディメンテーションニューラルネットワーク(CDRNet)を提案する。
論文 参考訳(メタデータ) (2023-03-16T11:53:29Z) - Learning Continuous Depth Representation via Geometric Spatial
Aggregator [47.1698365486215]
深度マップ超解法(DSR)のための新しい連続深度表現法を提案する。
この表現の中心は我々の提案した幾何空間アグリゲータ(GSA)であり、これは任意にアップサンプリングされたターゲットグリッドにより変調された距離場を利用する。
また、局所座標間の関数マッピングを構築するための原理的な方法を持つGeoDSRというトランスフォーマースタイルのバックボーンも提示する。
論文 参考訳(メタデータ) (2022-12-07T07:48:23Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D
Object Detection [83.57300674285133]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Where to Explore Next? ExHistCNN for History-aware Autonomous 3D
Exploration [39.376150974078364]
深度カメラを用いた未知の屋内環境の自律的3次元探査の課題に対処する。
我々は、未知領域のカバレッジを最大化するNext Best View (NBV) の評価として、この問題を論じる。
本稿では,現在の3次元観測(深度フレーム)と現在進行中の再建の歴史をエンコードする,学習に基づく新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2020-11-30T10:29:29Z) - Geodesic-HOF: 3D Reconstruction Without Cutting Corners [42.4960665928525]
シングルビュー3Dオブジェクト再構成は、コンピュータビジョンの難しい根本的な問題である。
標準サンプリング領域から高次元空間への画像条件付き写像関数を学習する。
この学習された測地線埋め込み空間は、教師なしオブジェクト分解のようなアプリケーションに有用な情報を提供する。
論文 参考訳(メタデータ) (2020-06-14T18:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。