論文の概要: GeoConv: Geodesic Guided Convolution for Facial Action Unit Recognition
- arxiv url: http://arxiv.org/abs/2003.03055v1
- Date: Fri, 6 Mar 2020 07:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:30:23.611154
- Title: GeoConv: Geodesic Guided Convolution for Facial Action Unit Recognition
- Title(参考訳): GeoConv: 顔行動単位認識のための測地ガイド付き畳み込み
- Authors: Yuedong Chen, Guoxian Song, Zhiwen Shao, Jianfei Cai, Tat-Jen Cham,
Jianming Zheng
- Abstract要約: AU認識のための新しい測地ガイド型畳み込み(GeoConv)を提案する。
我々はさらに、AU認識のためのGeoCNNというエンドツーエンドのトレーニング可能なフレームワークを開発した。
- 参考スコア(独自算出の注目度): 43.22337514214676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic facial action unit (AU) recognition has attracted great attention
but still remains a challenging task, as subtle changes of local facial muscles
are difficult to thoroughly capture. Most existing AU recognition approaches
leverage geometry information in a straightforward 2D or 3D manner, which
either ignore 3D manifold information or suffer from high computational costs.
In this paper, we propose a novel geodesic guided convolution (GeoConv) for AU
recognition by embedding 3D manifold information into 2D convolutions.
Specifically, the kernel of GeoConv is weighted by our introduced geodesic
weights, which are negatively correlated to geodesic distances on a coarsely
reconstructed 3D face model. Moreover, based on GeoConv, we further develop an
end-to-end trainable framework named GeoCNN for AU recognition. Extensive
experiments on BP4D and DISFA benchmarks show that our approach significantly
outperforms the state-of-the-art AU recognition methods.
- Abstract(参考訳): AU(Automatic Face Action Unit)の認識は注目されているが、局所的な顔面筋の微妙な変化が完全に捉えにくいため、依然として困難な課題である。
既存のau認識手法の多くは、3d多様体情報を無視するか、高い計算コストに苦しむ2dまたは3d方法で幾何学情報を活用する。
本稿では,3次元多様体情報を2次元畳み込みに埋め込み,AU認識のための新しい測地案内畳み込み(GeoConv)を提案する。
特に、geoconvの核は、粗く再構成された3d顔モデル上の測地線距離と負の相関を持つ、導入された測地線重みによって重み付けされる。
さらに,GeoConvに基づいて,AU認識のためのGeoCNNというエンドツーエンドのトレーニング可能なフレームワークをさらに開発する。
BP4D と DISFA のベンチマークによる大規模な実験により,我々の手法は最先端の AU 認識法よりも優れていた。
関連論文リスト
- GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - NeuroGF: A Neural Representation for Fast Geodesic Distance and Path
Queries [77.04220651098723]
本稿では,ニューラル暗黙関数を用いた3次元メッシュモデル上での測地線表現の試みについて述べる。
具体的には、与えられたメッシュの全対測地線を表現するために学習されたニューロ測地場(NeuroGF)を紹介する。
NeuroGFは、単一ソースのオールデスティネーション(SSAD)とポイント・ツー・ポイントの測地学を解く上で、非常に優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T13:32:21Z) - Cross-Dimensional Refined Learning for Real-Time 3D Visual Perception
from Monocular Video [2.2299983745857896]
本稿では3次元シーンの幾何学的構造と意味的ラベルを協調的に知覚する新しいリアルタイム能動的学習法を提案する。
本稿では,3次元メッシュと3次元セマンティックラベリングの両方をリアルタイムに抽出する,エンドツーエンドのクロスディメンテーションニューラルネットワーク(CDRNet)を提案する。
論文 参考訳(メタデータ) (2023-03-16T11:53:29Z) - Learning Continuous Depth Representation via Geometric Spatial
Aggregator [47.1698365486215]
深度マップ超解法(DSR)のための新しい連続深度表現法を提案する。
この表現の中心は我々の提案した幾何空間アグリゲータ(GSA)であり、これは任意にアップサンプリングされたターゲットグリッドにより変調された距離場を利用する。
また、局所座標間の関数マッピングを構築するための原理的な方法を持つGeoDSRというトランスフォーマースタイルのバックボーンも提示する。
論文 参考訳(メタデータ) (2022-12-07T07:48:23Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Joint stereo 3D object detection and implicit surface reconstruction [39.30458073540617]
本稿では,SO(3)の正確なオブジェクト指向を復元し,ステレオRGB画像から暗黙的な剛性形状を同時に予測できる学習ベースのフレームワークS-3D-RCNNを提案する。
方向推定のためには、局所的な外観を観測角度にマッピングする従来の研究とは対照的に、意味のある幾何学的表現(IGR)を抽出して進歩的なアプローチを提案する。
このアプローチは、知覚強度を1つか2つのビューからオブジェクト部分座標に変換するディープモデルにより、カメラ座標系において、直接自我中心のオブジェクト指向推定を実現する。
3次元境界ボックス内におけるより詳細な記述を実現するため,ステレオ画像からの暗黙的形状推定問題について検討する。
論文 参考訳(メタデータ) (2021-11-25T05:52:30Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Geodesic-HOF: 3D Reconstruction Without Cutting Corners [42.4960665928525]
シングルビュー3Dオブジェクト再構成は、コンピュータビジョンの難しい根本的な問題である。
標準サンプリング領域から高次元空間への画像条件付き写像関数を学習する。
この学習された測地線埋め込み空間は、教師なしオブジェクト分解のようなアプリケーションに有用な情報を提供する。
論文 参考訳(メタデータ) (2020-06-14T18:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。