論文の概要: Cross-Camera Cow Identification via Disentangled Representation Learning
- arxiv url: http://arxiv.org/abs/2602.07566v1
- Date: Sat, 07 Feb 2026 14:23:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.697088
- Title: Cross-Camera Cow Identification via Disentangled Representation Learning
- Title(参考訳): アンタングル表現学習によるクロスカメラカウの識別
- Authors: Runcheng Wang, Yaru Chen, Guiguo Zhang, Honghua Jiang, Yongliang Qiao,
- Abstract要約: 既存の動物識別法は、制御された単一カメラ設定で優れているが、クロスカメラの一般化に関して深刻な課題に直面している。
本研究では,不整合表現学習に基づくカメラ横断型ウシ識別フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.469246311611757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Precise identification of individual cows is a fundamental prerequisite for comprehensive digital management in smart livestock farming. While existing animal identification methods excel in controlled, single-camera settings, they face severe challenges regarding cross-camera generalization. When models trained on source cameras are deployed to new monitoring nodes characterized by divergent illumination, backgrounds, viewpoints, and heterogeneous imaging properties, recognition performance often degrades dramatically. This limits the large-scale application of non-contact technologies in dynamic, real-world farming environments. To address this challenge, this study proposes a cross-camera cow identification framework based on disentangled representation learning. This framework leverages the Subspace Identifiability Guarantee (SIG) theory in the context of bovine visual recognition. By modeling the underlying physical data generation process, we designed a principle-driven feature disentanglement module that decomposes observed images into multiple orthogonal latent subspaces. This mechanism effectively isolates stable, identity-related biometric features that remain invariant across cameras, thereby substantially improving generalization to unseen cameras. We constructed a high-quality dataset spanning five distinct camera nodes, covering heterogeneous acquisition devices and complex variations in lighting and angles. Extensive experiments across seven cross-camera tasks demonstrate that the proposed method achieves an average accuracy of 86.0%, significantly outperforming the Source-only Baseline (51.9%) and the strongest cross-camera baseline method (79.8%). This work establishes a subspace-theoretic feature disentanglement framework for collaborative cross-camera cow identification, offering a new paradigm for precise animal monitoring in uncontrolled smart farming environments.
- Abstract(参考訳): 個別牛の正確な識別は、スマート家畜農業における包括的デジタル管理の基本的な前提条件である。
既存の動物識別法は、制御された単一カメラ設定で優れているが、クロスカメラの一般化に関して深刻な課題に直面している。
ソースカメラでトレーニングされたモデルが、異なる照明、背景、視点、不均一な撮像特性を特徴とする新しい監視ノードにデプロイされると、認識性能は劇的に低下することが多い。
これにより、動的で現実世界の農業環境における非接触技術の大規模適用が制限される。
この課題に対処するために,不整合表現学習に基づくカメラ横断型ウシ識別フレームワークを提案する。
このフレームワークは、牛の視覚認識の文脈において、サブスペース Identifiability Guarantee (SIG) 理論を利用する。
基礎となる物理データ生成過程をモデル化することにより、観測画像を複数の直交潜在部分空間に分解する原理駆動型特徴分散モジュールを設計した。
このメカニズムは、カメラ間で不変な安定したアイデンティティ関連の生体特性を効果的に分離し、その結果、見えないカメラへの一般化を大幅に改善する。
我々は、5つの異なるカメラノードにまたがる高品質なデータセットを構築した。
7つのクロスカメラタスクにわたる大規模な実験により、提案手法は平均精度86.0%に達し、ソースのみのベースライン(51.9%)と最強のクロスカメラベースライン(79.8%)を大きく上回った。
この研究は、非制御のスマート農業環境において、動物を正確に監視するための新しいパラダイムを提供する、コラボレーティブなクロスカメラ牛の識別のためのサブスペース・セオラティックな特徴分散フレームワークを確立する。
関連論文リスト
- Self-Supervised AI-Generated Image Detection: A Camera Metadata Perspective [80.10217707456046]
カメラメタデータを利用したAI生成画像検出のための自己教師型アプローチを提案する。
分類型EXIFタグを分類することにより,撮影画像のみに特徴抽出器を訓練する。
我々の検出器は、電界中のサンプルに対して強力な一般化と、一般的な良性イメージの摂動に対する堅牢性を提供する。
論文 参考訳(メタデータ) (2025-12-05T11:53:18Z) - Cattle-CLIP: A Multimodal Framework for Cattle Behaviour Recognition [5.45546363077543]
Cattle-CLIPは、牛の行動認識のためのマルチモーダルなディープラーニングフレームワークである。
これは、時間統合モジュールを追加することで、大規模な画像言語モデルCLIPから適応される。
実験により、キャトル-CLIPは6つの行動に対して96.1%の総合的精度を達成することが示された。
論文 参考訳(メタデータ) (2025-10-10T09:43:12Z) - Agent4FaceForgery: Multi-Agent LLM Framework for Realistic Face Forgery Detection [108.5042835056188]
この作業では,2つの基本的な問題に対処するため,Agent4FaceForgeryを導入している。
人間の偽造の多様な意図と反復的なプロセスを捉える方法。
ソーシャルメディアの偽造に付随する複雑な、しばしば敵対的な、テキストと画像のインタラクションをモデル化する方法。
論文 参考訳(メタデータ) (2025-09-16T01:05:01Z) - Vision transformer-based multi-camera multi-object tracking framework for dairy cow monitoring [0.06282171844772422]
本研究は,屋内飼育のホルスタイン・フリーズ産乳牛を対象とした,独自のマルチカメラリアルタイム追跡システムを開発した。
この技術は最先端のコンピュータビジョン技術を使っており、たとえばインスタンスのセグメンテーションや追跡アルゴリズムを使って牛の活動をシームレスに正確にモニタする。
論文 参考訳(メタデータ) (2025-08-03T13:36:40Z) - Holstein-Friesian Re-Identification using Multiple Cameras and Self-Supervision on a Working Farm [2.9391768712283772]
複数のカメラで撮影されたMultiCamCows2024は、ホルシュタイン・フリース種牛の生体認証のための大規模画像データセットである。
データセットは、90頭の牛の101,329枚の画像と、基盤となるCCTVの映像で構成されている。
本研究では,データセットから画像の識別精度を96%以上上回る性能を報告し,学習中の複数のカメラからのデータを組み合わせることで,自己教師付き識別が促進されることを示した。
論文 参考訳(メタデータ) (2024-10-16T15:58:47Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Joint Noise-Tolerant Learning and Meta Camera Shift Adaptation for
Unsupervised Person Re-Identification [60.36551512902312]
unsupervised person re-identification (re-ID) は、ラベルのないデータで識別モデルを学ぶことを目的としている。
一般的な方法としては、クラスタ化によって擬似ラベルを取得し、モデルを最適化するために使用する方法がある。
本稿では,両問題を解決するための統一フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T09:13:06Z) - Towards Precise Intra-camera Supervised Person Re-identification [54.86892428155225]
人物の再識別(Re-ID)のためのカメラ内監視(ICS)は、アイデンティティラベルが各カメラビュー内に独立してアノテートされていると仮定する。
カメラ間ラベルの欠如により、ICS Re-ID問題は、完全に監督されたラベルよりもはるかに難しい。
われわれの手法は、2つのデータセットで最先端の完全教師付き手法に匹敵する性能を発揮する。
論文 参考訳(メタデータ) (2020-02-12T11:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。