論文の概要: EPBC-YOLOv8: An efficient and accurate improved YOLOv8 underwater detector based on an attention mechanism
- arxiv url: http://arxiv.org/abs/2502.05788v1
- Date: Sun, 09 Feb 2025 06:09:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 18:57:50.293078
- Title: EPBC-YOLOv8: An efficient and accurate improved YOLOv8 underwater detector based on an attention mechanism
- Title(参考訳): EPBC-YOLOv8:アテンション機構に基づく効率よく正確に改良されたYOLOv8水中検出器
- Authors: Xing Jiang, Xiting Zhuang, Jisheng Chen, Jian Zhang,
- Abstract要約: YOLOv8の背骨にチャネルと空間的注意を組み込むことにより,水中目標検出の精度を高めた。
我々のフレームワークは水中画像の劣化に対処し、データセットで0.5のスコアが76.7%、79.0のmAPを達成した。
これらのスコアは元のYOLOv8よりも2.3%高く、0.7%高い。
- 参考スコア(独自算出の注目度): 4.081096260595706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we enhance underwater target detection by integrating channel and spatial attention into YOLOv8's backbone, applying Pointwise Convolution in FasterNeXt for the FasterPW model, and leveraging Weighted Concat in a BiFPN-inspired WFPN structure for improved cross-scale connections and robustness. Utilizing CARAFE for refined feature reassembly, our framework addresses underwater image degradation, achieving mAP at 0.5 scores of 76.7 percent and 79.0 percent on URPC2019 and URPC2020 datasets, respectively. These scores are 2.3 percent and 0.7 percent higher than the original YOLOv8, showcasing enhanced precision in detecting marine organisms.
- Abstract(参考訳): 本研究では,通信路と空間的注意をYOLOv8のバックボーンに統合し,FasterPWモデルにPointwise Convolution in FasterNeXtを適用し,BiFPNにインスパイアされたWFPN構造における重み付きコンキャットを活用することにより,クロススケール接続とロバストネスの向上を図る。
CARAFEを機能再構成に利用し、我々のフレームワークは水中画像の劣化に対処し、それぞれURPC2019とURPC2020データセットで0.5スコア76.7%、79.0パーセントのmAPを達成した。
これらのスコアは元のYOLOv8よりも2.3%高く、0.7%高い。
関連論文リスト
- You Sense Only Once Beneath: Ultra-Light Real-Time Underwater Object Detection [2.5249064981269296]
超軽量リアルタイム水中物体検出フレームワークYSOOB(You Sense Only Beneath)を提案する。
具体的には、マルチスペクトルウェーブレット(MSWE)を用いて入力画像の周波数領域符号化を行い、水中光色歪みによる意味損失を最小限に抑える。
また、単純で効果的なチャネル圧縮によりモデル冗長性を排除し、モデル軽量化のために大カーネル畳み込み(RLKC)を再構築する。
論文 参考訳(メタデータ) (2025-04-22T08:26:35Z) - TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - YOLO-LLTS: Real-Time Low-Light Traffic Sign Detection via Prior-Guided Enhancement and Multi-Branch Feature Interaction [45.79993863157494]
YOLO-LLTSは、低照度環境向けに設計されたエンドツーエンドのリアルタイム信号検出アルゴリズムである。
我々は、低照度シナリオにおける不特定小物体の特徴に対処するために、HRFM-TOD(High-Resolution Feature Map for Small Object Detection)モジュールを導入する。
次に,マルチブランチ・フィーチャーインタラクション・アテンション(MFIA)モジュールを開発した。
論文 参考訳(メタデータ) (2025-03-18T04:28:05Z) - A Light Perspective for 3D Object Detection [46.23578780480946]
本稿では,最先端のDeep Learning技術を特徴抽出に取り入れた新しい手法を提案する。
私たちのモデルであるNextBEVは、ResNet50やMobileNetV3といった既存の機能抽出ツールを超えています。
これらの軽量な提案を融合することにより、VoxelNetベースのモデルの精度を2.93%向上し、PointPillarベースのモデルのF1スコアを約20%改善しました。
論文 参考訳(メタデータ) (2025-03-10T10:03:23Z) - A method for detecting dead fish on large water surfaces based on improved YOLOv10 [0.6874745415692134]
死んだ魚は水質の悪化、生態系の損傷、病気の伝染などの重大な問題を引き起こす可能性がある。
本稿では,拡張YOLOv10フレームワーク上に構築したエンドツーエンド検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-31T08:43:37Z) - Fall Detection for Industrial Setups Using YOLOv8 Variants [0.0]
25.9百万のパラメータと79.1のGFLOPからなるYOLOv8mモデルでは、計算効率と検出性能のバランスが良好であった。
YOLOv8l と YOLOv8x モデルでは精度とリコールが向上したが、その高い計算要求とモデルサイズによりリソース制約のある環境には適さない。
論文 参考訳(メタデータ) (2024-08-08T17:24:54Z) - Cycle-YOLO: A Efficient and Robust Framework for Pavement Damage Detection [13.221462950649467]
本稿では,CycleGANと改良YOLOv5アルゴリズムを用いた舗装損傷検出手法を提案する。
本アルゴリズムは, 3種類の舗装損傷(き裂, 穴, パッチ)を検出する場合, 0.872, 0.854, 平均精度@0.5, 0.882, 平均精度@0.5を達成した。
論文 参考訳(メタデータ) (2024-05-28T07:27:42Z) - DiffNAS: Bootstrapping Diffusion Models by Prompting for Better
Architectures [63.12993314908957]
そこで我々は,DiffNASと呼ばれるベースモデル探索手法を提案する。
GPT-4をスーパーネットとして利用して検索を高速化し,検索メモリを補足して結果を向上する。
厳密な実験により,GPTに基づくシナリオでは,探索効率を2倍に向上できることが示された。
論文 参考訳(メタデータ) (2023-10-07T09:10:28Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - AMSP-UOD: When Vortex Convolution and Stochastic Perturbation Meet
Underwater Object Detection [40.532331552038485]
AMSP-UOD(Amplitude-Modulated Perturbation and Vortex Convolutional Network)を提案する。
AMSP-UODは複雑な水中環境における非理想的撮像因子が検出精度に与える影響に対処する。
提案手法は,既存の最先端手法よりも精度とノイズ免疫の点で優れる。
論文 参考訳(メタデータ) (2023-08-23T05:03:45Z) - Industrial Anomaly Detection and Localization Using Weakly-Supervised Residual Transformers [44.344548601242444]
Weakly-supervised RESidual Transformer (WeakREST) という新しいフレームワークを導入し,高い異常検出精度を実現する。
画素単位の異常局所化タスクをブロック単位の分類問題に再構成する。
弱いラベルと残差に基づく表現との相互作用を処理できるResMixMatchアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-06-06T08:19:30Z) - DeepSeaNet: Improving Underwater Object Detection using EfficientDet [0.0]
このプロジェクトでは、注釈付き水中データセット上で様々な物体検出モデルを実装し、評価する。
このデータセットは、Limfjorden水中で捕獲された魚、カニ、ヒトデ、その他の水生動物の注釈画像からなる。
I compare the results of YOLOv3 (31.10% mean Average Precision (mAP)), YOLOv4 (83.72% mAP), YOLOv5 (97.6%), YOLOv8 (98.20%), EfficientDet (98.56% mAP) and Detectron2 (95.20% mAP) on the same dataset。
論文 参考訳(メタデータ) (2023-05-26T13:41:35Z) - Underwater target detection based on improved YOLOv7 [7.264267222876267]
本研究では,水中目標検出のための改良型YOLOv7ネットワーク(YOLOv7-AC)を提案する。
提案するネットワークは、ACmixBlockモジュールを使用して、E-ELAN構造の3x3畳み込みブロックを置き換える。
ResNet-ACmixモジュールは、特徴情報の損失を回避し、計算量を削減するように設計されている。
論文 参考訳(メタデータ) (2023-02-14T09:50:52Z) - TDAF: Top-Down Attention Framework for Vision Tasks [46.14128665926765]
トップダウンの注目を捉えるためのトップダウンアテンションフレームワーク(TDAF)を提案します。
実験的な証拠は、我々のTDFが効果的な階層化された注意情報を捕捉し、性能を向上できることを示している。
論文 参考訳(メタデータ) (2020-12-14T04:19:13Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。