論文の概要: Interaction-via-Actions: Cattle Interaction Detection with Joint Learning of Action-Interaction Latent Space
- arxiv url: http://arxiv.org/abs/2512.16133v1
- Date: Thu, 18 Dec 2025 03:42:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.898923
- Title: Interaction-via-Actions: Cattle Interaction Detection with Joint Learning of Action-Interaction Latent Space
- Title(参考訳): インタラクション・ウィズ・アクション:アクション・インタラクション・ラテント・スペースの連成学習による牛のインタラクション検出
- Authors: Ren Nakagawa, Yang Yang, Risa Shinoda, Hiroaki Santo, Kenji Oyama, Fumio Okura, Takenao Ohkawa,
- Abstract要約: 本稿では,牛の放牧行動を自動的に検出する手法と応用について紹介する。
本研究では,牛の行動の組み合わせに相互作用を分解し,データ効率のよい相互作用検出手法であるCattleActを提案する。
提案手法を応用して,映像とGPSの入力を統合した実用的な作業システムを開発した。
- 参考スコア(独自算出の注目度): 18.635930702079563
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper introduces a method and application for automatically detecting behavioral interactions between grazing cattle from a single image, which is essential for smart livestock management in the cattle industry, such as for detecting estrus. Although interaction detection for humans has been actively studied, a non-trivial challenge lies in cattle interaction detection, specifically the lack of a comprehensive behavioral dataset that includes interactions, as the interactions of grazing cattle are rare events. We, therefore, propose CattleAct, a data-efficient method for interaction detection by decomposing interactions into the combinations of actions by individual cattle. Specifically, we first learn an action latent space from a large-scale cattle action dataset. Then, we embed rare interactions via the fine-tuning of the pre-trained latent space using contrastive learning, thereby constructing a unified latent space of actions and interactions. On top of the proposed method, we develop a practical working system integrating video and GPS inputs. Experiments on a commercial-scale pasture demonstrate the accurate interaction detection achieved by our method compared to the baselines. Our implementation is available at https://github.com/rakawanegan/CattleAct.
- Abstract(参考訳): 本稿では,牛の放牧行動を自動的に検出する手法と応用について紹介する。
ヒトの相互作用検出は活発に研究されているが、牛の相互作用検出、特に牛の放牧の相互作用は稀な出来事であるため、相互作用を含む包括的な行動データセットが欠如している。
そこで我々は,個々の牛の行動の組み合わせに相互作用を分解して相互作用を検出する,データ効率のよい手法であるCattleActを提案する。
具体的には、大規模な牛の行動データセットから、まず行動潜在空間を学習する。
そして、コントラスト学習を用いて、事前学習された潜在空間の微調整により、希少な相互作用を埋め込むことにより、行動と相互作用の統一された潜在空間を構築する。
提案手法を応用して,映像とGPSの入力を統合した実用的な作業システムを開発した。
商業規模の牧草地における実験により,本手法による正確な相互作用検出がベースラインと比較された。
私たちの実装はhttps://github.com/rakawanegan/CattleAct.comで公開しています。
関連論文リスト
- PEAR: Phrase-Based Hand-Object Interaction Anticipation [20.53329698350243]
ファースト・パーソン・ハンド・オブジェクト・インタラクション・予測は、現在のシーンとプロンプトに基づいてインタラクション・プロセスを予測することを目的としている。
既存の研究は通常、操作を無視しながら相互作用の意図だけを予測している。
インタラクションの意図と操作を共同で予測する新しいモデルPEARを提案する。
論文 参考訳(メタデータ) (2024-07-31T10:28:49Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Real-Time Cattle Interaction Recognition via Triple-stream Network [3.3843451892622576]
牛の局在化ネットワークは、検出されたすべての牛から高品質な相互作用提案を出力する。
インタラクション認識ネットワークは、それらをトリプルストリームアーキテクチャでインタラクション認識ネットワークにフィードする。
論文 参考訳(メタデータ) (2022-09-06T06:31:09Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Transferable Interactiveness Knowledge for Human-Object Interaction
Detection [46.89715038756862]
我々は,人間と物体が相互に相互作用するか否かを示す対話性知識を探索する。
対話性に関する知識は、HOIデータセット全体で学習でき、多様なHOIカテゴリ設定のギャップを埋めることができる。
私たちのコアアイデアは、対話性ネットワークを利用して、複数のHOIデータセットから一般的な対話性知識を学ぶことです。
論文 参考訳(メタデータ) (2021-01-25T18:21:07Z) - DIRV: Dense Interaction Region Voting for End-to-End Human-Object
Interaction Detection [53.40028068801092]
本稿では,HOI問題に対するインタラクション領域という新しい概念に基づいて,新しい一段階HOI検出手法を提案する。
従来の手法とは異なり,本手法は人-物対ごとに異なるスケールにわたる密集した相互作用領域に焦点をあてる。
単一相互作用領域の検出欠陥を補うために,我々は新しい投票戦略を導入する。
論文 参考訳(メタデータ) (2020-10-02T13:57:58Z) - Learning End-to-End Action Interaction by Paired-Embedding Data
Augmentation [10.857323240766428]
新しいInteractive Action Translation (IAT)タスクは、ラベルなしのインタラクティブなペアからエンドツーエンドのアクションインタラクションを学ぶことを目的としている。
Paired-Embedding (PE) 法を提案する。
2つのデータセットの実験結果から,本手法の優れた効果と幅広い応用可能性が確認された。
論文 参考訳(メタデータ) (2020-07-16T01:54:16Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。