論文の概要: Exp-Graph: How Connections Learn Facial Attributes in Graph-based Expression Recognition
- arxiv url: http://arxiv.org/abs/2507.14608v1
- Date: Sat, 19 Jul 2025 13:10:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.967674
- Title: Exp-Graph: How Connections Learn Facial Attributes in Graph-based Expression Recognition
- Title(参考訳): Exp-Graph:グラフによる表情認識における顔属性の学習方法
- Authors: Nandani Sharma, Dinesh Singh,
- Abstract要約: 顔の特徴間の構造的関係を表現する新しいフレームワークであるExp-Graphを提案する。
顔属性グラフ表現では、顔のランドマークがグラフの頂点として使用される。
エッジは、顔のランドマークの近接と、視覚変換器を用いて符号化された顔属性の局所的な外観の類似性に基づいて決定される。
- 参考スコア(独自算出の注目度): 0.6042269506496204
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Facial expression recognition is crucial for human-computer interaction applications such as face animation, video surveillance, affective computing, medical analysis, etc. Since the structure of facial attributes varies with facial expressions, incorporating structural information into facial attributes is essential for facial expression recognition. In this paper, we propose Exp-Graph, a novel framework designed to represent the structural relationships among facial attributes using graph-based modeling for facial expression recognition. For facial attributes graph representation, facial landmarks are used as the graph's vertices. At the same time, the edges are determined based on the proximity of the facial landmark and the similarity of the local appearance of the facial attributes encoded using the vision transformer. Additionally, graph convolutional networks are utilized to capture and integrate these structural dependencies into the encoding of facial attributes, thereby enhancing the accuracy of expression recognition. Thus, Exp-Graph learns from the facial attribute graphs highly expressive semantic representations. On the other hand, the vision transformer and graph convolutional blocks help the framework exploit the local and global dependencies among the facial attributes that are essential for the recognition of facial expressions. We conducted comprehensive evaluations of the proposed Exp-Graph model on three benchmark datasets: Oulu-CASIA, eNTERFACE05, and AFEW. The model achieved recognition accuracies of 98.09\%, 79.01\%, and 56.39\%, respectively. These results indicate that Exp-Graph maintains strong generalization capabilities across both controlled laboratory settings and real-world, unconstrained environments, underscoring its effectiveness for practical facial expression recognition applications.
- Abstract(参考訳): 表情認識は、顔アニメーション、ビデオ監視、感情コンピューティング、医療分析など、人間とコンピュータのインタラクションアプリケーションにとって不可欠である。
顔属性の構造は表情によって異なるため、顔属性に構造情報を組み込むことは、表情認識に不可欠である。
本稿では,表情認識のためのグラフベースモデリングを用いて,顔属性間の構造的関係を表現する新しいフレームワークExp-Graphを提案する。
顔属性グラフ表現では、顔のランドマークがグラフの頂点として使用される。
同時に、エッジは、顔のランドマークの近接と、視覚変換器を用いて符号化された顔属性の局所的な外観の類似性に基づいて決定される。
さらに、グラフ畳み込みネットワークを用いて、これらの構造的依存関係を顔属性の符号化にキャプチャし、統合することにより、表現認識の精度を高める。
このように、Exp-Graphは顔属性グラフから高度に表現力のある意味表現から学習する。
一方、視覚変換器とグラフ畳み込みブロックは、表情認識に不可欠な顔属性間の局所的およびグローバル的依存関係を利用するのに役立つ。
提案したExp-Graphモデルについて,Oulu-CASIA,eNTERFACE05,AFEWの3つのベンチマークデータセットを用いて総合評価を行った。
このモデルは、それぞれ98.09\%、79.01\%、56.39\%の認識精度を達成した。
これらの結果から,Exp-Graphは,制御された実験室環境と実世界,制約のない環境の両方にわたって,強力な一般化能力を維持しており,実用的な表情認識アプリケーションとしての有効性を実証している。
関連論文リスト
- The Importance of Facial Features in Vision-based Sign Language Recognition: Eyes, Mouth or Full Face? [5.92177182003275]
本研究は, 口が非手動顔の最も重要な特徴であり, 精度が著しく向上していることを示す。
自動手話認識に顔の特徴を取り入れることの必要性が示唆された。
論文 参考訳(メタデータ) (2025-07-28T14:36:46Z) - Facial Landmark Visualization and Emotion Recognition Through Neural Networks [0.0]
顔画像からの感情認識は、人間とコンピュータの相互作用において重要な課題である。
これまでの研究では、顔認識がディープラーニングモデルのトレーニングに利用できることが示されている。
顔データセットの外れ値を特定するための可視化技術である顔ランドマークボックスプロットを提案する。
論文 参考訳(メタデータ) (2025-06-20T17:45:34Z) - Face-LLaVA: Facial Expression and Attribute Understanding through Instruction Tuning [5.178801281905521]
顔認識や属性認識を含む,顔中心のテキスト内学習のための大規模言語モデルFace-LLaVAを提案する。
まず,顔処理のためのMLLMを指導する顔中心データベースFaceInstruct-1Mを開発した。
そこで我々は,Face-Region Guided Cross-Attentionを応用した新しいビジュアルエンコーダを開発した。
論文 参考訳(メタデータ) (2025-04-09T18:26:07Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Face-GCN: A Graph Convolutional Network for 3D Dynamic Face
Identification/Recognition [21.116748155592752]
顔のキーポイントに基づく動的3次元顔認識のための新しいフレームワークを提案する。
表情の動的列は時間グラフとして表現され、3次元の顔のランドマークを用いて構築される。
我々は,動的3次元表情データセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-04-19T09:05:39Z) - Adaptive Graph Representation Learning and Reasoning for Face Parsing [55.086151726427104]
顔解析は、各顔成分にピクセルワイズラベルを推論する。
成分関係は、顔領域の曖昧な画素を識別する重要な手がかりである。
顔面成分の適応的グラフ表現学習と推論を提案する。
論文 参考訳(メタデータ) (2021-01-18T12:17:40Z) - Human Expression Recognition using Facial Shape Based Fourier
Descriptors Fusion [15.063379178217717]
本論文では,顔面筋の変化に基づく新しい表情認識法を提案する。
幾何学的特徴は、口、目、鼻などの顔領域を特定するために用いられる。
7つの人間の表現の分類にマルチクラスサポートベクターマシンが適用される。
論文 参考訳(メタデータ) (2020-12-28T05:01:44Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Edge-aware Graph Representation Learning and Reasoning for Face Parsing [61.5045850197694]
顔解析は、最近注目されている各顔成分にピクセルワイズラベルを推論する。
従来は顔解析における効率性を示してきたが, 異なる顔領域間の相関性を見落としている。
本稿では,グラフ表現の学習による地域関係のモデル化と推論を提案する。
論文 参考訳(メタデータ) (2020-07-22T07:46:34Z) - Structured Landmark Detection via Topology-Adapting Deep Graph Learning [75.20602712947016]
解剖学的顔と医学的ランドマーク検出のための新しいトポロジ適応深層グラフ学習手法を提案する。
提案手法は局所像特徴と大域形状特徴の両方を利用するグラフ信号を構成する。
3つの公開顔画像データセット(WFLW、300W、COFW-68)と3つの現実世界のX線医学データセット(ケパロメトリ、ハンド、ペルビス)で実験を行った。
論文 参考訳(メタデータ) (2020-04-17T11:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。