論文の概要: Beyond Proximity: A Keypoint-Trajectory Framework for Classifying Affiliative and Agonistic Social Networks in Dairy Cattle
- arxiv url: http://arxiv.org/abs/2512.14998v1
- Date: Wed, 17 Dec 2025 01:01:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.817722
- Title: Beyond Proximity: A Keypoint-Trajectory Framework for Classifying Affiliative and Agonistic Social Networks in Dairy Cattle
- Title(参考訳): 近縁性を超えて:乳牛のアフィリエティブ・アゴニスティック・ソーシャル・ネットワークを分類するためのキーポイント・トラジェクトリ・フレームワーク
- Authors: Sibi Parivendan, Kashfia Sailunaz, Suresh Neethirajan,
- Abstract要約: 市販の乳製品納屋におけるインタラクションの分類のためのポーズベースの計算フレームワークを提案する。
画素レベルの外観や単純な距離測定に頼るのではなく、キーポイント軌道からの相互作用運動シグネチャを符号化する。
その結果,対話を意識したソーシャルネットワーク構築に適した,視覚に基づくソーシャルインタラクションの自動推論のための概念実証が確立された。
- 参考スコア(独自算出の注目度): 0.764671395172401
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Precision livestock farming requires objective assessment of social behavior to support herd welfare monitoring, yet most existing approaches infer interactions using static proximity thresholds that cannot distinguish affiliative from agonistic behaviors in complex barn environments. This limitation constrains the interpretability of automated social network analysis in commercial settings. We present a pose-based computational framework for interaction classification that moves beyond proximity heuristics by modeling the spatiotemporal geometry of anatomical keypoints. Rather than relying on pixel-level appearance or simple distance measures, the proposed method encodes interaction-specific motion signatures from keypoint trajectories, enabling differentiation of social interaction valence. The framework is implemented as an end-to-end computer vision pipeline integrating YOLOv11 for object detection (mAP@0.50: 96.24%), supervised individual identification (98.24% accuracy), ByteTrack for multi-object tracking (81.96% accuracy), ZebraPose for 27-point anatomical keypoint estimation, and a support vector machine classifier trained on pose-derived distance dynamics. On annotated interaction clips collected from a commercial dairy barn, the classifier achieved 77.51% accuracy in distinguishing affiliative and agonistic behaviors using pose information alone. Comparative evaluation against a proximity-only baseline shows substantial gains in behavioral discrimination, particularly for affiliative interactions. The results establish a proof-of-concept for automated, vision-based inference of social interactions suitable for constructing interaction-aware social networks, with near-real-time performance on commodity hardware.
- Abstract(参考訳): 家畜の精密農業は、群集の福祉モニタリングを支援するために、客観的な社会的行動評価を必要とするが、既存のほとんどのアプローチは、複雑な納屋環境におけるアフィリエートとアゴニストの挙動を区別できない静的な近接しきい値を用いて相互作用を推測する。
この制限は、商用環境での自動ソーシャルネットワーク分析の解釈可能性を制限する。
本稿では,解剖学的キーポイントの時空間幾何をモデル化することにより,近接ヒューリスティックスを超えた相互作用分類のためのポーズベース計算フレームワークを提案する。
画素レベルの外観や単純な距離測定に頼るのではなく、キーポイント軌跡からの相互作用特異的な動作シグネチャを符号化し、社会的相互作用価の微分を可能にする。
このフレームワークは、オブジェクト検出用 YOLOv11 (mAP@0.50: 96.24%)、教師付き個人識別用 (98.24%)、マルチオブジェクト追跡用 ByteTrack (81.96%)、27ポイント解剖学的キーポイント推定用 ZebraPose、ポーズからの距離ダイナミクスに基づいて訓練されたサポートベクトルマシン分類器として実装されている。
市販の乳製品納屋から採取したアノテート・インタラクション・クリップについて,アフィリエイトとアゴニストの区別において,ポーズ情報のみを用いて77.51%の精度を達成した。
近距離のみのベースラインに対する比較評価は、特に親和性相互作用において、行動的差別において顕著な増加を示す。
その結果,コモディティハードウェア上でのほぼリアルタイムのパフォーマンスで,対話を意識したソーシャルネットワーク構築に適した,視覚に基づくソーシャルインタラクションの自動推論のための概念実証が確立された。
関連論文リスト
- Learning Human-Object Interaction as Groups [52.28258599873394]
GroupHOIは、幾何学的近接性および意味的類似性の観点から文脈情報を伝播するフレームワークである。
これは、より困難な非言語間相互作用検出タスクにおいて、主要なパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-10-21T07:25:10Z) - Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。