論文の概要: Sheep Facial Pain Assessment Under Weighted Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2506.01468v1
- Date: Mon, 02 Jun 2025 09:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.122692
- Title: Sheep Facial Pain Assessment Under Weighted Graph Neural Networks
- Title(参考訳): 重み付きグラフニューラルネットワークによる頭蓋顔面痛の評価
- Authors: Alam Noor, Luis Almeida, Mohamed Daoudi, Kai Li, Eduardo Tovar,
- Abstract要約: ヒツジが検出した顔のランドマークをリンクし、痛みレベルを定義するために、新しい重み付きグラフニューラルネットワーク(WGNN)モデルを提案する。
YOLOv8n検出器アーキテクチャは、羊の顔のランドマークデータセットで平均平均精度(mAP)が59.30%に達する。
- 参考スコア(独自算出の注目度): 8.13128640016839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately recognizing and assessing pain in sheep is key to discern animal health and mitigating harmful situations. However, such accuracy is limited by the ability to manage automatic monitoring of pain in those animals. Facial expression scoring is a widely used and useful method to evaluate pain in both humans and other living beings. Researchers also analyzed the facial expressions of sheep to assess their health state and concluded that facial landmark detection and pain level prediction are essential. For this purpose, we propose a novel weighted graph neural network (WGNN) model to link sheep's detected facial landmarks and define pain levels. Furthermore, we propose a new sheep facial landmarks dataset that adheres to the parameters of the Sheep Facial Expression Scale (SPFES). Currently, there is no comprehensive performance benchmark that specifically evaluates the use of graph neural networks (GNNs) on sheep facial landmark data to detect and measure pain levels. The YOLOv8n detector architecture achieves a mean average precision (mAP) of 59.30% with the sheep facial landmarks dataset, among seven other detection models. The WGNN framework has an accuracy of 92.71% for tracking multiple facial parts expressions with the YOLOv8n lightweight on-board device deployment-capable model.
- Abstract(参考訳): 羊の痛みを正確に認識し、評価することは、動物の健康を識別し、有害な状況を緩和する鍵となる。
しかし、そのような精度は、それらの動物の痛みを自動で監視する能力によって制限される。
表情スコアリングは、ヒトおよび他の生物の痛みを評価するために広く用いられ、有用な方法である。
また、羊の表情を分析して健康状態を評価し、顔のランドマークの検出と痛みレベルの予測が不可欠であると結論づけた。
そこで本研究では,ヒツジが検出した顔のランドマークをリンクし,痛みレベルを定義するために,新しい重み付きグラフニューラルネットワーク(WGNN)モデルを提案する。
さらに,深部顔面表情尺度(SPFES)のパラメータに準拠した新しいヒツジ顔のランドマークデータセットを提案する。
現在、痛みレベルを検出して測定するために、ヒツジの顔のランドマークデータにグラフニューラルネットワーク(GNN)の使用を特に評価する包括的なパフォーマンスベンチマークはありません。
YOLOv8n検出器アーキテクチャは、他の7つの検出モデルのうち、羊の顔のランドマークデータセットで平均平均mAP(mAP)を59.30%達成している。
WGNNフレームワークの精度は92.71%で、YOLOv8nライトウェイトなオンボードデバイス配置可能モデルで複数の顔部品の表情を追跡する。
関連論文リスト
- GraphAU-Pain: Graph-based Action Unit Representation for Pain Intensity Estimation [14.267177649888994]
既存の表情から痛みを検出するデータ駆動手法は、解釈可能性と重大さによって制限される。
グラフニューラルネットワークを利用することで、我々のフレームワークは解釈可能性の向上と大幅な性能向上を提供する。
一般公開されたUNBCデータセットで実施された実験は、GraphAU-Painの有効性を実証している。
論文 参考訳(メタデータ) (2025-05-26T10:35:42Z) - Automated facial recognition system using deep learning for pain
assessment in adults with cerebral palsy [0.5242869847419834]
既存の対策は、介護者による直接の観察に依存し、感度と特異性に欠ける。
10のニューラルネットワークが3つの痛み画像データベースでトレーニングされた。
InceptionV3はCP-PAINデータセット上で有望なパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-01-22T17:55:16Z) - Pain Analysis using Adaptive Hierarchical Spatiotemporal Dynamic Imaging [16.146223377936035]
本稿では,適応時間動画像(Adaptive temporal Dynamic Image, AHDI)技術を紹介する。
AHDIは、顔ビデオの深い変化を特異なRGB画像にエンコードし、ビデオ表現のためのより単純な2Dモデルを実現する。
この枠組み内では、一般化された顔表現を導出するために残差ネットワークを用いる。
これらの表現は、痛みの強さを推定し、本物の痛み表現とシミュレートされた痛み表現を区別する2つのタスクに最適化される。
論文 参考訳(メタデータ) (2023-12-12T01:23:05Z) - Automated Detection of Cat Facial Landmarks [8.435125986009881]
猫の顔画像に境界ボックスと48個の顔のランドマークを付加した新しいデータセットを提出した。
本稿では、拡大エンセムベ法を用いて、ランドマーク検出畳み込みニューラルネットワークに基づくモデルを提案する。
本モデルは猫の顔に優れた性能を示し,ヒトの顔のランドマーク検出に一般化可能である。
論文 参考訳(メタデータ) (2023-10-15T10:44:36Z) - Graph Neural Networks with Trainable Adjacency Matrices for Fault
Diagnosis on Multivariate Sensor Data [69.25738064847175]
各センサの信号の挙動を別々に検討し,相互の相関関係と隠れ関係を考慮する必要がある。
グラフノードは、異なるセンサーからのデータとして表現することができ、エッジは、これらのデータの影響を互いに表示することができる。
グラフニューラルネットワークのトレーニング中にグラフを構築する方法が提案されている。これにより、センサー間の依存関係が事前に分かっていないデータ上でモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-10-20T11:03:21Z) - Portuguese Man-of-War Image Classification with Convolutional Neural
Networks [58.720142291102135]
ポルトガルマン・オブ・ウォー(ポルトガル語: Man-of-war、PMW)は、長い触手を持つゼラチン質の生物である。
本稿では,InstagramのソーシャルメディアからPMW画像を認識するための畳み込みニューラルネットワークの利用について報告する。
論文 参考訳(メタデータ) (2022-07-04T03:06:45Z) - Intelligent Sight and Sound: A Chronic Cancer Pain Dataset [74.77784420691937]
本稿では,Intelligent Sight and Sound (ISS) 臨床試験の一環として収集された,最初の慢性ガン痛データセットを紹介する。
これまで収集されたデータは29の患者、509のスマートフォンビデオ、189,999のフレーム、そして自己報告された感情と活動の痛みのスコアから成っている。
静的画像とマルチモーダルデータを用いて、自己報告された痛みレベルを予測する。
論文 参考訳(メタデータ) (2022-04-07T22:14:37Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks [9.162936410696409]
顔の識別と顔の属性の分類のための軽量畳み込みニューラルネットワークのマルチタスクトレーニングを検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
論文 参考訳(メタデータ) (2021-03-31T14:21:04Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。