論文の概要: PRNet: Original Information Is All You Have
- arxiv url: http://arxiv.org/abs/2510.09531v1
- Date: Fri, 10 Oct 2025 16:44:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.398368
- Title: PRNet: Original Information Is All You Have
- Title(参考訳): PRNet:オリジナル・インフォメーションがすべて
- Authors: PeiHuang Zheng, Yunlong Zhao, Zheng Cui, Yang Li,
- Abstract要約: PRNetは、原始的な浅い空間的特徴の保存と効率的な利用を優先するリアルタイム検出フレームワークである。
PRNetは、同等の計算制約の下で最先端のメソッドより優れている。
- 参考スコア(独自算出の注目度): 3.1373048585002254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small object detection in aerial images suffers from severe information degradation during feature extraction due to limited pixel representations, where shallow spatial details fail to align effectively with semantic information, leading to frequent misses and false positives. Existing FPN-based methods attempt to mitigate these losses through post-processing enhancements, but the reconstructed details often deviate from the original image information, impeding their fusion with semantic content. To address this limitation, we propose PRNet, a real-time detection framework that prioritizes the preservation and efficient utilization of primitive shallow spatial features to enhance small object representations. PRNet achieves this via two modules:the Progressive Refinement Neck (PRN) for spatial-semantic alignment through backbone reuse and iterative refinement, and the Enhanced SliceSamp (ESSamp) for preserving shallow information during downsampling via optimized rearrangement and convolution. Extensive experiments on the VisDrone, AI-TOD, and UAVDT datasets demonstrate that PRNet outperforms state-of-the-art methods under comparable computational constraints, achieving superior accuracy-efficiency trade-offs.
- Abstract(参考訳): 空中画像における小さな物体検出は、限られたピクセル表現によって特徴抽出中に深刻な情報劣化に悩まされ、浅い空間的詳細が意味情報と効果的に一致しないため、しばしばミスや偽陽性が発生する。
既存のFPNベースの手法では、これらの損失を後処理の強化によって軽減しようとするが、再構成された詳細はしばしば元の画像情報から逸脱し、セマンティックコンテンツとの融合を妨げる。
この制限に対処するために,プリミティブな浅い空間的特徴の保存と有効利用を優先し,小さなオブジェクト表現を向上させるリアルタイム検出フレームワークPRNetを提案する。
PRNetは2つのモジュールを通じてこれを達成している: バックボーンの再利用と反復精製による空間意味的アライメントのためのプログレッシブ・リファインメント・ネック(PRN)と、最適化された再配置と畳み込みによるダウンサンプリング中の浅い情報を保存するための拡張SliceSamp(ESSamp)である。
VisDrone、AI-TOD、UAVDTデータセットに関する大規模な実験は、PRNetが同等の計算制約の下で最先端のメソッドよりも優れ、精度と効率のトレードオフが優れていることを示した。
関連論文リスト
- It's Not the Target, It's the Background: Rethinking Infrared Small Target Detection via Deep Patch-Free Low-Rank Representations [5.326302374594885]
本稿では、LRRNetと呼ばれる新しいエンドツーエンドIRSTDフレームワークを提案する。
乱れシーンの物理的圧縮性に着想を得て,本手法は圧縮・再構成・減算パラダイムを採用する。
複数の公開データセットの実験により、LRRNetは検出精度、堅牢性、計算効率の点で38の最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-06-12T07:24:45Z) - Decouple to Reconstruct: High Quality UHD Restoration via Active Feature Disentanglement and Reversible Fusion [77.08942160610478]
超高精細画像復元(UHD)は、高解像度のため、しばしば計算ボトルネックや情報損失に直面している。
本稿では,より難解な劣化情報を潜時空間に符号化しながら,容易に復元可能な背景情報を破棄する制御付き微分遠絡型VAEを提案する。
提案手法は,UHD画像復元の精度を向上し,UHD画像復元の6つの課題を1Mパラメータのみで実現し,VAEモデルにおける情報損失問題を効果的に軽減する。
論文 参考訳(メタデータ) (2025-03-17T02:55:18Z) - Re-Visible Dual-Domain Self-Supervised Deep Unfolding Network for MRI Reconstruction [48.30341580103962]
本稿では、これらの問題に対処するために、新しい再視覚的二重ドメイン自己教師型深層展開ネットワークを提案する。
エンド・ツー・エンドの再構築を実現するために,シャンブルとポック・プロキシ・ポイント・アルゴリズム(DUN-CP-PPA)に基づく深層展開ネットワークを設計する。
高速MRIおよびIXIデータセットを用いて行った実験により,本手法は再建性能において最先端の手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-07T12:29:32Z) - AMSA-UNet: An Asymmetric Multiple Scales U-net Based on Self-attention for Deblurring [7.00986132499006]
asymmetric multiple scales U-net based on self-attention (AMSA-UNet) was proposed to improve the accuracy and compute complexity。
マルチスケールなU字型アーキテクチャを導入することで、ネットワークはグローバルレベルでぼやけた領域に集中でき、ローカルレベルで画像の詳細を回復することができる。
論文 参考訳(メタデータ) (2024-06-13T11:39:02Z) - Efficient Visual State Space Model for Image Deblurring [99.54894198086852]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
提案したEVSSMは、ベンチマークデータセットや実世界の画像に対する最先端の手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - TRACER: Extreme Attention Guided Salient Object Tracing Network [3.2434811678562676]
本稿では,注意誘導型トレーシングモジュールを組み込んで,鮮明なエッジで有意な物体を検出するTRACERを提案する。
13の既存手法との比較により、TRACERは5つのベンチマークデータセットで最先端のパフォーマンスを達成することが明らかになった。
論文 参考訳(メタデータ) (2021-12-14T13:20:07Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。