論文の概要: Agreement-Driven Multi-View 3D Reconstruction for Live Cattle Weight Estimation
- arxiv url: http://arxiv.org/abs/2601.17791v1
- Date: Sun, 25 Jan 2026 11:12:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.395443
- Title: Agreement-Driven Multi-View 3D Reconstruction for Live Cattle Weight Estimation
- Title(参考訳): 乳牛体重推定のためのコンセンサス駆動型多視点3次元再構成
- Authors: Rabin Dulal, Wenfeng Jia, Lihong Zheng, Jane Quinn,
- Abstract要約: 本研究では,牛の生体重量計算における費用対効果非接触法を3次元再構成を用いて検討した。
動物1頭につき1つの3Dポイントクラウドを生成し,従来のアンサンブルモデルとディープラーニングモデルを比較した。
その結果,Multi-view agreement fusion を用いたSAM 3Dは,他の3D生成方法よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate cattle live weight estimation is vital for livestock management, welfare, and productivity. Traditional methods, such as manual weighing using a walk-over weighing system or proximate measurements using body condition scoring, involve manual handling of stock and can impact productivity from both a stock and economic perspective. To address these issues, this study investigated a cost-effective, non-contact method for live weight calculation in cattle using 3D reconstruction. The proposed pipeline utilized multi-view RGB images with SAM 3D-based agreement-guided fusion, followed by ensemble regression. Our approach generates a single 3D point cloud per animal and compares classical ensemble models with deep learning models under low-data conditions. Results show that SAM 3D with multi-view agreement fusion outperforms other 3D generation methods, while classical ensemble models provide the most consistent performance for practical farm scenarios (R$^2$ = 0.69 $\pm$ 0.10, MAPE = 2.22 $\pm$ 0.56 \%), making this practical for on-farm implementation. These findings demonstrate that improving reconstruction quality is more critical than increasing model complexity for scalable deployment on farms where producing a large volume of 3D data is challenging.
- Abstract(参考訳): 正確な牛の家畜の体重推定は、家畜の管理、福祉、生産性に不可欠である。
従来の方法では、ウォークオーバー量測定システムを用いた手動重量測定や、体調測定を用いた近似測定など、在庫の手動処理を伴い、ストックと経済の両面から生産性に影響を与えることがある。
これらの課題に対処するために,牛の3次元再構成を用いた生活体重計算のための費用対効果非接触法について検討した。
提案したパイプラインは、SAM 3Dベースのコンセンサス誘導融合とアンサンブル回帰を用いたマルチビューRGB画像を利用した。
動物1頭につき1つの3次元点雲を生成し, 従来のアンサンブルモデルと低データ条件下でのディープラーニングモデルを比較した。
以上の結果から,複数ビューのコンセンサスを融合したSAM 3Dは,他の3D生成手法よりも優れており,古典的なアンサンブルモデルでは,実践的ファームシナリオ(R$^2$ = 0.69 $\pm$ 0.10, MAPE = 2.22 $\pm$ 0.56 \%)において最も一貫した性能が得られている。
これらの結果から,3次元データの大量生産が困難である農場における大規模展開において,モデル複雑化よりも復元品質の向上が重要であることが示唆された。
関連論文リスト
- Visual Autoregressive Modelling for Monocular Depth Estimation [69.01449528371916]
本稿では,視覚的自己回帰(VAR)に基づく単眼深度推定手法を提案する。
提案手法は,大規模テキスト・画像VARモデルに適応し,スケールワイド・コンディショナル・アップサンプリング機構を導入する。
本研究では,屋内ベンチマークにおける制約付きトレーニング条件下での最先端性能と,屋外データセットに適用した場合の強い性能について報告する。
論文 参考訳(メタデータ) (2025-12-27T17:08:03Z) - MuSASplat: Efficient Sparse-View 3D Gaussian Splats via Lightweight Multi-Scale Adaptation [92.57609195819647]
MuSASplatは、ポーズなしフィードフォワード3Dガウスモデルの計算負担を劇的に削減する新しいフレームワークである。
我々のアプローチの中心は、ほんのわずかなトレーニングパラメータだけで、ViTベースのアーキテクチャを効率的に微調整できる軽量なマルチスケールアダプタである。
論文 参考訳(メタデータ) (2025-12-08T04:56:46Z) - Multimodal Feature-Driven Deep Learning for the Prediction of Duck Body Dimensions and Weight [12.125067563652257]
本研究では、異なるビュー、深度画像、および3D点雲からのマルチモーダルデータ2D RGB画像を活用する革新的な深層学習モデルを提案する。
姿勢や条件の異なる5,000以上のサンプルからなる1,023羽のLinwuアヒルのデータセットを収集し、モデルトレーニングを支援した。
このモデルは平均絶対パーセンテージ誤差(MAPE)が6.33%、R2が0.953で8つの形態パラメータで達成され、強い予測能力を示した。
論文 参考訳(メタデータ) (2025-03-18T08:09:19Z) - Gamba: Marry Gaussian Splatting with Mamba for single view 3D reconstruction [153.52406455209538]
Gambaは、単一のビューイメージからエンドツーエンドの3D再構成モデルである。
1つのNVIDIA A100 GPUで0.05秒以内に再構築が完了する。
論文 参考訳(メタデータ) (2024-03-27T17:40:14Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Distribution-Aware Single-Stage Models for Multi-Person 3D Pose
Estimation [29.430404703883084]
本稿では,多人数の3Dポーズ推定問題に対処する新しいDASモデルを提案する。
提案するDASモデルでは,3次元カメラ空間における人物位置と人体関節をワンパスで同時に位置決めする。
CMU Panoptic と MuPoTS-3D のベンチマークに関する総合的な実験は、提案したDASモデルの優れた効率を実証している。
論文 参考訳(メタデータ) (2022-03-15T07:30:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。