論文の概要: GLaRE: A Graph-based Landmark Region Embedding Network for Emotion Recognition
- arxiv url: http://arxiv.org/abs/2508.20579v1
- Date: Thu, 28 Aug 2025 09:17:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.269347
- Title: GLaRE: A Graph-based Landmark Region Embedding Network for Emotion Recognition
- Title(参考訳): GLaRE:感情認識のためのグラフベースのランドマーク領域埋め込みネットワーク
- Authors: Debasis Maji, Debaditya Barman,
- Abstract要約: 我々は、感情認識のための新しいグラフベースのランドマーク領域埋め込みネットワークであるGLaREを提案する。
提案手法は, AffectNetの64.89パーセント, FERGの94.24パーセントの精度を達成し, 既存のベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 0.7161783472741748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial expression recognition (FER) is a crucial task in computer vision with wide range of applications including human computer interaction, surveillance, and assistive technologies. However, challenges such as occlusion, expression variability, and lack of interpretability hinder the performance of traditional FER systems. Graph Neural Networks (GNNs) offer a powerful alternative by modeling relational dependencies between facial landmarks, enabling structured and interpretable learning. In this paper, we propose GLaRE, a novel Graph-based Landmark Region Embedding network for emotion recognition. Facial landmarks are extracted using 3D facial alignment, and a quotient graph is constructed via hierarchical coarsening to preserve spatial structure while reducing complexity. Our method achieves 64.89 percentage accuracy on AffectNet and 94.24 percentage on FERG, outperforming several existing baselines. Additionally, ablation studies have demonstrated that region-level embeddings from quotient graphs have contributed to improved prediction performance.
- Abstract(参考訳): 顔表情認識(FER)は、人間のコンピュータインタラクション、監視、補助技術など幅広い用途でコンピュータビジョンにおいて重要な課題である。
しかし、隠蔽、表現の可変性、解釈可能性の欠如といった課題は、従来のFERシステムの性能を損なう。
グラフニューラルネットワーク(GNN)は、顔のランドマーク間のリレーショナル依存関係をモデル化することで、構造化と解釈可能な学習を可能にする強力な代替手段を提供する。
本稿では,感情認識のためのグラフベースの新しいランドマーク領域埋め込みネットワークであるGLaREを提案する。
顔の3次元アライメントを用いて顔のランドマークを抽出し、階層的粗大化により商グラフを構築し、空間構造を保存し、複雑さを低減させる。
提案手法は, AffectNetの64.89パーセント, FERGの94.24パーセントの精度を達成し, 既存のベースラインよりも優れていた。
さらに、アブレーション研究は、商グラフからの領域レベルの埋め込みが予測性能の向上に寄与していることを示した。
関連論文リスト
- Exp-Graph: How Connections Learn Facial Attributes in Graph-based Expression Recognition [0.6042269506496204]
顔の特徴間の構造的関係を表現する新しいフレームワークであるExp-Graphを提案する。
顔属性グラフ表現では、顔のランドマークがグラフの頂点として使用される。
エッジは、顔のランドマークの近接と、視覚変換器を用いて符号化された顔属性の局所的な外観の類似性に基づいて決定される。
論文 参考訳(メタデータ) (2025-07-19T13:10:21Z) - Brain Network Classification Based on Graph Contrastive Learning and Graph Transformer [0.6906005491572401]
本稿では,グラフコントラスト学習をグラフ変換器と統合したPHGCL-DDGformerという新しいモデルを提案する。
実世界のデータセットによる実験結果から、PHGCL-DDGformerモデルは、脳ネットワーク分類タスクにおける既存の最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-01T13:26:03Z) - From Pixels to Histopathology: A Graph-Based Framework for Interpretable Whole Slide Image Analysis [81.19923502845441]
我々はWSIグラフ表現を構成するグラフベースのフレームワークを開発する。
任意のパッチではなく生物学的境界に従う組織表現(ノード)を構築します。
本手法の最終段階として,グラフアテンションネットワークを用いて診断課題を解決する。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - G-OSR: A Comprehensive Benchmark for Graph Open-Set Recognition [54.45837774534411]
ノードレベルとグラフレベルの両方でグラフオープンセット認識(GOSR)手法を評価するベンチマークである textbfG-OSR を導入する。
結果は、現在のGOSR手法の一般化可能性と限界に関する重要な洞察を与える。
論文 参考訳(メタデータ) (2025-03-01T13:02:47Z) - Signed Graph Autoencoder for Explainable and Polarization-Aware Network Embeddings [20.77134976354226]
署名付きネットワーク用に設計されたSGAAE(Signed Graph Archetypal Autoencoder)フレームワーク。
SGAAEは、異なる極端プロファイル上でノードメンバシップを表現するノードレベル表現を抽出する。
モデルは、実世界の4つのデータセット間で署名付きリンク予測の異なるタスクで高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-16T16:40:40Z) - Affinity-Aware Graph Networks [9.888383815189176]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを学ぶための強力なテクニックとして登場した。
グラフニューラルネットワークの特徴としてアフィニティ尺度の利用について検討する。
本稿では,これらの特徴に基づくメッセージパッシングネットワークを提案し,その性能を様々なノードおよびグラフ特性予測タスクで評価する。
論文 参考訳(メタデータ) (2022-06-23T18:51:35Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Compact Graph Architecture for Speech Emotion Recognition [0.0]
データを表現するコンパクトで効率的でスケーラブルな方法は、グラフの形式です。
グラフ畳み込みネットワーク(GCN)ベースのアーキテクチャを構築し,正確なグラフ畳み込みを実現する。
我々のモデルは、学習可能なパラメータが著しく少ない最先端のモデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2020-08-05T12:09:09Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。