論文の概要: Motion Blur Robust Wheat Pest Damage Detection with Dynamic Fuzzy Feature Fusion
- arxiv url: http://arxiv.org/abs/2601.03046v1
- Date: Tue, 06 Jan 2026 14:28:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.972629
- Title: Motion Blur Robust Wheat Pest Damage Detection with Dynamic Fuzzy Feature Fusion
- Title(参考訳): 動的ファジィ特徴融合による運動ブラバロバスト小麦害検出
- Authors: Han Zhang, Yanwei Wang, Fang Li, Hongjun Wang,
- Abstract要約: カメラの揺れによる動きのぼかしは、エッジオブジェクトの検出を著しく低下させるゴーストアーティファクトを生成する。
本稿では, 動的ファジィロバスト畳み込みピラミッドであるDFRCPをYOLOv11へのプラグインとして提案する。
DFRCPによるYOLOv11の精度はYOLOv11ベースラインよりも10.4%高い。
- 参考スコア(独自算出の注目度): 9.833892786885816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion blur caused by camera shake produces ghosting artifacts that substantially degrade edge side object detection. Existing approaches either suppress blur as noise and lose discriminative structure, or apply full image restoration that increases latency and limits deployment on resource constrained devices. We propose DFRCP, a Dynamic Fuzzy Robust Convolutional Pyramid, as a plug in upgrade to YOLOv11 for blur robust detection. DFRCP enhances the YOLOv11 feature pyramid by combining large scale and medium scale features while preserving native representations, and by introducing Dynamic Robust Switch units that adaptively inject fuzzy features to strengthen global perception under jitter. Fuzzy features are synthesized by rotating and nonlinearly interpolating multiscale features, then merged through a transparency convolution that learns a content adaptive trade off between original and fuzzy cues. We further develop a CUDA parallel rotation and interpolation kernel that avoids boundary overflow and delivers more than 400 times speedup, making the design practical for edge deployment. We train with paired supervision on a private wheat pest damage dataset of about 3,500 images, augmented threefold using two blur regimes, uniform image wide motion blur and bounding box confined rotational blur. On blurred test sets, YOLOv11 with DFRCP achieves about 10.4 percent higher accuracy than the YOLOv11 baseline with only a modest training time overhead, reducing the need for manual filtering after data collection.
- Abstract(参考訳): カメラの揺れによる動きのぼかしは、エッジ側の物体検出を著しく低下させるゴーストアーティファクトを生成する。
既存のアプローチでは、ノイズとしてぼやけを抑制し、差別構造を失うか、あるいはレイテンシを高め、リソース制約のあるデバイスへのデプロイメントを制限するフルイメージ復元を適用する。
本稿では, 動的ファジィロバスト畳み込みピラミッドであるDFRCPをYOLOv11へのプラグインとして提案する。
DFRCPは、大規模な特徴と中規模の特徴を組み合わせてネイティブ表現を保存し、動的ロバストスイッチユニットを導入して、ファジィ特徴を適応的に注入し、ジッタの下でのグローバルな認識を強化することで、YOLOv11の機能ピラミッドを強化する。
ファジィ特徴は、マルチスケールの特徴を回転・非線形に補間して合成され、その後、オリジナルとファジィキューの間のコンテンツ適応的トレードオフを学ぶ透過的畳み込みによってマージされる。
さらに,境界オーバーフローを回避し,400倍以上のスピードアップを実現するCUDA並列回転・補間カーネルを開発し,エッジ配置に実用的である。
約3,500枚の画像から得られた小麦害害害の個人データと,2つのぼやけた状態,一様の画像広動ぼやけ,および拘束箱の回転ぼやけを用いた3倍の強化を行った。
曖昧なテストセットでは、DFRCPを使用したYOLOv11は、トレーニング時間だけオーバーヘッドの少ないYOLOv11ベースラインよりも約10.4%高い精度を実現し、データ収集後の手動フィルタリングの必要性を低減した。
関連論文リスト
- Learnable Fractional Reaction-Diffusion Dynamics for Under-Display ToF Imaging and Beyond [41.80709169876722]
ディスプレイ下のToFイメージングは、スクリーンパネルの下に置かれたToFカメラを通じて正確な深度検知を実現することを目的としている。
本稿では,ニューラルネットワークの表現力と物理モデリングの解釈可能性を組み合わせたハイブリッドフレームワークLFRD2を提案する。
論文 参考訳(メタデータ) (2025-11-03T16:12:36Z) - Blur2seq: Blind Deblurring and Camera Trajectory Estimation from a Single Camera Motion-blurred Image [2.842028685390758]
カメラの揺らぎによる動きのぼやけは、特に大きな動きや回転運動の下では、画像復元において大きな課題である。
本稿では,1つのぼやけた画像から潜時鋭い画像と下層のカメラ運動軌跡を共同で推定する深層学習フレームワークを提案する。
本手法は,合成データと実データの両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-10-23T13:26:07Z) - Motion-Aware Adaptive Pixel Pruning for Efficient Local Motion Deblurring [87.56382172827526]
画像内のぼやけた領域を識別するトレーニング可能なマスク予測器を提案する。
また、相対的な画素変位を運動軌跡に変換するフレーム内運動解析器を開発した。
提案手法は, 再建損失, 再生損失, および注釈付きぼかしマスクで導かれるマスク損失の組合せを用いて, エンドツーエンドで訓練する。
論文 参考訳(メタデータ) (2025-07-10T12:38:27Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [92.4205087439928]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基盤モデルとの遅延空間アライメントによるクロスモーダルな知識伝達を確立し、データ不足を効果的に軽減する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
この組み合わせのアプローチにより、FUSEはターゲットデータセットに対する軽量デコーダ適応のみを必要とするユニバーサルなイメージイベントを構築することができる。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - SVDC: Consistent Direct Time-of-Flight Video Depth Completion with Frequency Selective Fusion [8.23422182642083]
軽量直接飛行(dToF)センサーはモバイルデバイス上での3Dセンシングに最適である。
本稿では,疎度dToFデータを対応するRGBガイダンスと融合させることで,SVDCと呼ばれる新しい映像深度補完手法を提案する。
本手法では, スパースdToFイメージングによる空間的曖昧性を軽減するために, 多フレーム融合方式を用いる。
論文 参考訳(メタデータ) (2025-03-03T07:32:25Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Gyroscope-Assisted Motion Deblurring Network [11.404195533660717]
本稿では、慣性計測ユニット(IMU)データを用いて、動きのぼかし画像の合成と復元を行う枠組みを提案する。
このフレームワークは、3重項生成のトレーニング戦略と、ぼやけた画像復元のためのジャイロスコープ支援モーションデブロアリング(GAMD)ネットワークを含む。
論文 参考訳(メタデータ) (2024-02-10T01:30:24Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - A Constrained Deformable Convolutional Network for Efficient Single
Image Dynamic Scene Blind Deblurring with Spatially-Variant Motion Blur
Kernels Estimation [12.744989551644744]
本稿では,効率的なシングルイメージダイナミックシーンブラインドブルのための制約付き変形可能な畳み込みネットワーク(CDCN)を提案する。
CDCNは、高精度な空間変動運動ぼかしカーネル推定と高品質な画像復元を同時に達成する。
論文 参考訳(メタデータ) (2022-08-23T03:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。