論文の概要: HRDNet: High-resolution Detection Network for Small Objects
- arxiv url: http://arxiv.org/abs/2006.07607v1
- Date: Sat, 13 Jun 2020 10:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:08:04.282693
- Title: HRDNet: High-resolution Detection Network for Small Objects
- Title(参考訳): HRDNet:小型物体の高分解能検出ネットワーク
- Authors: Ziming Liu and Guangyu Gao and Lin Sun and Zhiyuan Fang
- Abstract要約: 小物体検出は、小物体に詳細な情報が含まれておらず、深層ネットワークで消える可能性があるため、困難である。
本稿では,高分解能画像の利点を新たな問題を生じさせないよう,高分解能画像検出ネットワーク(HRDNet)を提案する。
本稿では,MD-IPN(Multi-Depth Image Pyramid Network)とMS-FPN(Multi-Scale Feature Pyramid Network)を提案する。
- 参考スコア(独自算出の注目度): 10.802856121451404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small object detection is challenging because small objects do not contain
detailed information and may even disappear in the deep network. Usually,
feeding high-resolution images into a network can alleviate this issue.
However, simply enlarging the resolution will cause more problems, such as
that, it aggravates the large variant of object scale and introduces unbearable
computation cost. To keep the benefits of high-resolution images without
bringing up new problems, we proposed the High-Resolution Detection Network
(HRDNet). HRDNet takes multiple resolution inputs using multi-depth backbones.
To fully take advantage of multiple features, we proposed Multi-Depth Image
Pyramid Network (MD-IPN) and Multi-Scale Feature Pyramid Network (MS-FPN) in
HRDNet. MD-IPN maintains multiple position information using multiple depth
backbones. Specifically, high-resolution input will be fed into a shallow
network to reserve more positional information and reducing the computational
cost while low-resolution input will be fed into a deep network to extract more
semantics. By extracting various features from high to low resolutions, the
MD-IPN is able to improve the performance of small object detection as well as
maintaining the performance of middle and large objects. MS-FPN is proposed to
align and fuse multi-scale feature groups generated by MD-IPN to reduce the
information imbalance between these multi-scale multi-level features. Extensive
experiments and ablation studies are conducted on the standard benchmark
dataset MS COCO2017, Pascal VOC2007/2012 and a typical small object dataset,
VisDrone 2019. Notably, our proposed HRDNet achieves the state-of-the-art on
these datasets and it performs better on small objects.
- Abstract(参考訳): 小さなオブジェクトは詳細な情報を含んでおらず、ディープネットワークで消えてしまう可能性があるため、小さなオブジェクト検出は難しい。
通常、高解像度画像をネットワークに供給することでこの問題を軽減できる。
しかし、単に解像度を拡大すれば、オブジェクトスケールの大きなバリエーションが増加し、計算コストが低下するなど、より多くの問題が発生する。
新たな問題を生じさせることなく高解像度画像の利点を維持するため,高分解能検出ネットワーク(HRDNet)を提案した。
HRDNetはマルチディープスバックボーンを使用して複数の解像度入力を行う。
複数の特徴をフル活用するために,HRDNetでMD-IPN(Multi-Depth Image Pyramid Network)とMS-FPN(Multi-Scale Feature Pyramid Network)を提案する。
MD-IPNは複数の深度バックボーンを用いて複数の位置情報を保持する。
具体的には、高い解像度の入力を浅いネットワークに供給し、より多くの位置情報を保存し、計算コストを削減し、低解像度の入力を深いネットワークに供給し、より多くのセマンティクスを抽出する。
MD-IPNは,高分解能から低分解能まで様々な特徴を抽出することにより,小型物体検出の性能を向上させるとともに,中・大型物体の性能を維持することができる。
MS-FPN は,MD-IPN が生成するマルチスケール特徴群の整合性と融合により,これらのマルチスケール特徴間の情報不均衡を低減する。
大規模な実験とアブレーション研究は、標準ベンチマークデータセットMS COCO2017、Pascal VOC2007/2012および典型的な小さなオブジェクトデータセットVisDrone 2019で実施されている。
特に,提案したHRDNetは,これらのデータセットの最先端性を達成し,小型オブジェクトでの性能を向上する。
関連論文リスト
- PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Recurrent Multi-scale Transformer for High-Resolution Salient Object
Detection [68.65338791283298]
Salient Object Detection (SOD) は、画像やビデオの中で最も顕著なオブジェクトを識別し、セグメント化することを目的としている。
従来のSOD法は主に解像度の低い画像に限られており、高分解能SODの開発に適応することが困難である。
本研究ではまず,2K-8K解像度で10,500個の高品質なアノテート画像を含む新しいHRS10Kデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-07T17:49:04Z) - Hi-ResNet: Edge Detail Enhancement for High-Resolution Remote Sensing Segmentation [10.919956120261539]
高分解能リモートセンシング(HRS)セマンティックセマンティクスは、高分解能カバレッジ領域からキーオブジェクトを抽出する。
HRS画像内の同じカテゴリのオブジェクトは、多様な地理的環境におけるスケールと形状の顕著な違いを示す。
効率的なネットワーク構造を持つ高分解能リモートセンシングネットワーク(Hi-ResNet)を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:58:25Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - SaNet: Scale-aware neural Network for Parsing Multiple Spatial
Resolution Aerial Images [0.0]
複数空間分解能空中画像解析のためのスケールアウェアニューラルネットワーク (SaNet) を提案する。
スケール変動による大小のオブジェクト間の不均衡なセグメンテーション品質に対処するため、SaNetは密に接続されたフィーチャーネットワーク(DCFPN)モジュールを展開します。
情報的特徴損失を軽減するため、SFRモジュールをネットワークに組み込み、空間的関係強化を伴うスケール不変の特徴を学習する。
論文 参考訳(メタデータ) (2021-03-14T14:19:46Z) - Dense Multiscale Feature Fusion Pyramid Networks for Object Detection in
UAV-Captured Images [0.09065034043031667]
本研究では,よりリッチな特徴を可能な限り得ることを目的とした,高密度多スケール特徴融合ピラミッドネットワーク(dmffpn)と呼ばれる新しい手法を提案する。
具体的には、密度の高い接続は、異なる畳み込み層からの表現を完全に活用するように設計されている。
VisDrone-DETと呼ばれるドローンベースのデータセットの実験は、我々の方法の競争力を示唆している。
論文 参考訳(メタデータ) (2020-12-19T10:05:31Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。