論文の概要: TP-MVCC: Tri-plane Multi-view Fusion Model for Silkie Chicken Counting
- arxiv url: http://arxiv.org/abs/2509.24329v1
- Date: Mon, 29 Sep 2025 06:27:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.783619
- Title: TP-MVCC: Tri-plane Multi-view Fusion Model for Silkie Chicken Counting
- Title(参考訳): トリプレーン多視点核融合モデルTP-MVCC
- Authors: Sirui Chen, Yuhong Feng, Yifeng Wang, Jianghai Liao, Qi Zhang,
- Abstract要約: トリプレーン型マルチビューチキンカウントモデル(TP-MVCC)を提案する。
このフレームワークは、単一ビューの特徴を抽出し、空間変換によりそれらを整列し、シーンレベルの密度マップをデコードして正確なチキンカウントを行う。
実験の結果、TP-MVCCはシングルビューと従来の核融合比較を著しく上回り、密閉されたシナリオにおいて95.1%の精度と強い強靭性を達成した。
- 参考スコア(独自算出の注目度): 17.152755859621724
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate animal counting is essential for smart farming but remains difficult in crowded scenes due to occlusions and limited camera views. To address this, we propose a tri-plane-based multi-view chicken counting model (TP-MVCC), which leverages geometric projection and tri-plane fusion to integrate features from multiple cameras onto a unified ground plane. The framework extracts single-view features, aligns them via spatial transformation, and decodes a scene-level density map for precise chicken counting. In addition, we construct the first multi-view dataset of silkie chickens under real farming conditions. Experiments show that TP-MVCC significantly outperforms single-view and conventional fusion comparisons, achieving 95.1\% accuracy and strong robustness in dense, occluded scenarios, demonstrating its practical potential for intelligent agriculture.
- Abstract(参考訳): 正確な動物計数はスマート農業には不可欠であるが、密集したシーンでは、隠蔽や限定的なカメラビューのため、依然として困難である。
そこで本研究では,幾何投射と三面融合を利用して,複数のカメラの特徴を統一した地上面に統合する三面式マルチビューチキンカウントモデル(TP-MVCC)を提案する。
このフレームワークは、単一ビューの特徴を抽出し、空間変換によりそれらを整列し、シーンレベルの密度マップをデコードして正確なチキンカウントを行う。
さらに,実際の農業環境下でのニワトリのマルチビューデータセットを構築した。
実験の結果、TP-MVCCはシングルビューと従来の核融合比較を著しく上回り、密集した密集したシナリオにおいて95.1\%の精度と強い堅牢性を達成し、知的農業の実践的な可能性を示している。
関連論文リスト
- Tackling fluffy clouds: robust field boundary delineation across global agricultural landscapes with Sentinel-1 and Sentinel-2 Time Series [1.0251998687197121]
PTAViT3Dは3次元時系列衛星画像の処理に特化して設計されたディープラーニングアーキテクチャである。
また,PTAViT3Dモデルの拡張であるPTAViT3D-CAを提案する。
この結果から, 優れたグローバルトランスファービリティとロバスト性を示した。
論文 参考訳(メタデータ) (2024-09-20T15:10:04Z) - Offboard Occupancy Refinement with Hybrid Propagation for Autonomous Driving [33.3595557038557]
3Dセマンティックシーンコンプリート(3D Semantic Scene Completion, SSC)は、コンピュータビジョンにおいて重要な課題である。
OccFinerは,視覚による占有率予測の精度を高めるために設計された,新しいオフボードフレームワークである。
論文 参考訳(メタデータ) (2024-03-13T13:12:42Z) - rpcPRF: Generalizable MPI Neural Radiance Field for Satellite Camera [0.76146285961466]
本稿では,多面体画像(MPI)を用いたRPO(Rational Polynomial Camera)のための平面神経放射場rpcPRFを提案する。
本稿では,3次元座標と画像の間の正確な形状を学習するために,予測されたMPIを誘導するために再投影監視を利用する。
我々は、放射場の描画技術を導入することにより、深層多視点ステレオ法から密集深度監視の厳密な要求を取り除いた。
論文 参考訳(メタデータ) (2023-10-11T04:05:11Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - Tri-Perspective View for Vision-Based 3D Semantic Occupancy Prediction [84.94140661523956]
本稿では,2つの垂直面を追加してBEVに付随するトリ・パースペクティブ・ビュー(TPV)表現を提案する。
3次元空間の各点を3次元平面上の投影された特徴をまとめてモデル化する。
実験結果から,本モデルは全ボクセルのセマンティック占有率を効果的に予測できることが示唆された。
論文 参考訳(メタデータ) (2023-02-15T17:58:10Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - M3DeTR: Multi-representation, Multi-scale, Mutual-relation 3D Object
Detection with Transformers [78.48081972698888]
M3DeTRは、マルチスケールのフィーチャーピラミッドに基づいて、異なるポイントクラウド表現と異なる機能スケールを組み合わせたものです。
M3DeTRは、複数のポイントクラウド表現、機能スケール、およびトランスを使用してポイントクラウド間の相互関係を同時にモデル化する最初のアプローチです。
論文 参考訳(メタデータ) (2021-04-24T06:48:23Z) - Wide-Area Crowd Counting: Multi-View Fusion Networks for Counting in
Large Scenes [50.744452135300115]
マルチビュー・クラウドカウントのためのディープニューラルネットワークフレームワークを提案する。
提案手法は,他のマルチビューカウントベースラインと比較して,最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-12-02T03:20:30Z) - 3D Crowd Counting via Geometric Attention-guided Multi-View Fusion [50.520192402702015]
本稿では,3次元シーンレベルの密度マップと3次元特徴融合により,多視点群カウントタスクを解くことを提案する。
2D融合と比較すると、3D融合はz次元(高さ)に沿った人々のより多くの情報を抽出し、複数のビューにわたるスケールの変動に対処するのに役立つ。
3D密度マップは、和がカウントである2D密度マップの特性を保ちながら、群衆密度に関する3D情報も提供する。
論文 参考訳(メタデータ) (2020-03-18T11:35:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。