論文の概要: SFN-YOLO: Towards Free-Range Poultry Detection via Scale-aware Fusion Networks
- arxiv url: http://arxiv.org/abs/2509.17086v1
- Date: Sun, 21 Sep 2025 14:03:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.108335
- Title: SFN-YOLO: Towards Free-Range Poultry Detection via Scale-aware Fusion Networks
- Title(参考訳): SFN-YOLO:大規模核融合ネットワークによるフリーランジポウトリー検出を目指して
- Authors: Jie Chen, Yuhong Feng, Tao Dai, Mingzhe Liu, Hongtao Chen, Zhaoxi He, Jiancong Bai,
- Abstract要約: スケール・アウェア・フュージョンを利用したSFN-YOLOという革新的な養鶏検出手法を提案する。
このアプローチは、複雑な環境における検出を改善するために、詳細なローカル機能とより広範なグローバルコンテキストを組み合わせる。
総合的な実験では、我々のモデルは7.2Mパラメータだけで80.7%のmAPを達成しており、これはベンチマークよりも35.1%少ない。
- 参考スコア(独自算出の注目度): 10.373413488124013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting and localizing poultry is essential for advancing smart poultry farming. Despite the progress of detection-centric methods, challenges persist in free-range settings due to multiscale targets, obstructions, and complex or dynamic backgrounds. To tackle these challenges, we introduce an innovative poultry detection approach named SFN-YOLO that utilizes scale-aware fusion. This approach combines detailed local features with broader global context to improve detection in intricate environments. Furthermore, we have developed a new expansive dataset (M-SCOPE) tailored for varied free-range conditions. Comprehensive experiments demonstrate our model achieves an mAP of 80.7% with just 7.2M parameters, which is 35.1% fewer than the benchmark, while retaining strong generalization capability across different domains. The efficient and real-time detection capabilities of SFN-YOLO support automated smart poultry farming. The code and dataset can be accessed at https://github.com/chenjessiee/SFN-YOLO.
- Abstract(参考訳): スマート養殖を推進するためには, 養殖地の検出と立地が不可欠である。
検出中心の手法の進歩にもかかわらず、課題は、マルチスケールのターゲット、障害、複雑なバックグラウンド、動的バックグラウンドによって、フリーレンジ設定で継続される。
これらの課題に対処するために、スケール・アウェア・フュージョンを利用したSFN-YOLOと呼ばれる革新的な養鶏検出手法を導入する。
このアプローチは、複雑な環境における検出を改善するために、詳細なローカル機能とより広範なグローバルコンテキストを組み合わせる。
さらに,様々な自由範囲条件に適した新しい拡張データセット (M-SCOPE) を開発した。
総合的な実験により、我々のモデルは7.2Mパラメータだけで80.7%のmAPを達成しており、これはベンチマークよりも35.1%少ないが、異なる領域にわたる強力な一般化能力を維持している。
SFN-YOLOの効率的かつリアルタイム検出能力は,自動養殖を支援する。
コードとデータセットはhttps://github.com/chenjessiee/SFN-YOLOでアクセスできる。
関連論文リスト
- RoHOI: Robustness Benchmark for Human-Object Interaction Detection [78.18946529195254]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - Noise Resilient Over-The-Air Federated Learning In Heterogeneous Wireless Networks [2.2530496464901106]
6G無線ネットワークでは、人工知能(AI)駆動のアプリケーションはフェデレートラーニング(FL)の採用を要求する。
従来のOTA-FL技術は、サーバにおけるAWGN(Additive White Gaussian Noise)と、エッジデバイスにおけるデータおよびシステム不均一性の両面から影響を受けている。
我々は,これらの課題に共同で取り組むために,新しいノイズ耐性オーバーザエアフェデレートラーニング(NoROTA-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-25T11:04:00Z) - DEAL-YOLO: Drone-based Efficient Animal Localization using YOLO [0.0]
本研究は,無人航空機(UAV)画像における小型物体検出を改善する新しい手法を提案する。
Deal-YOLO は Wise IoU (WIoU) や Normalized Wasserstein Distance (NWD) のような多目的損失関数を採用しており、バウンディングボックスの中央付近のピクセルを優先している。
このモデルはLinear Deformable (LD)畳み込みによる効率的な特徴抽出により最適化され、計算効率を維持しながら精度を向上する。
論文 参考訳(メタデータ) (2025-03-06T18:46:10Z) - Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Multi-Branch Auxiliary Fusion YOLO with Re-parameterization Heterogeneous Convolutional for accurate object detection [3.7793767915135295]
本稿では,MAF-YOLOという新しいモデルを提案する。
Multi-Branch Auxiliary FPN (MAFPN) という名前の汎用ネックを持つ新しいオブジェクト検出フレームワークである。
例えばMAF-YOLOのナノバージョンを使用すれば、3.76Mの学習可能なパラメータと10.51GのFLOPでCOCO上の42.4%のAPを達成でき、YOLOv8nを約5.1%上回る。
論文 参考訳(メタデータ) (2024-07-05T09:35:30Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - SaRPFF: A Self-Attention with Register-based Pyramid Feature Fusion module for enhanced RLD detection [0.3262230127283452]
SaRPFF (Self-Attention with Register-based Pyramid Feature Fusion) は、マルチスケールオブジェクト検出を強化するために設計された新しいモジュールである。
2D-Multi-Head Self-Attention (MHSA)とレジスタトークンを統合し、機能解釈性を改善する。
MRLDデータセットにおける平均精度 (AP) は, YOLOv7のベースラインFPN法と比較して+2.61%向上した。
論文 参考訳(メタデータ) (2024-02-26T04:18:42Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。