論文の概要: U-HRNet: Delving into Improving Semantic Representation of High
Resolution Network for Dense Prediction
- arxiv url: http://arxiv.org/abs/2210.07140v1
- Date: Thu, 13 Oct 2022 16:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:34:34.395488
- Title: U-HRNet: Delving into Improving Semantic Representation of High
Resolution Network for Dense Prediction
- Title(参考訳): U-HRNet:Dense Predictionのための高分解能ネットワークのセマンティック表現の改善を目指して
- Authors: Jian Wang, Xiang Long, Guowei Chen, Zewu Wu, Zeyu Chen, Errui Ding
- Abstract要約: HRNetのような既存の最先端フレームワークは、低解像度と高解像度の機能マップを並列に保持している。
我々は,U字型高分解能ネットワーク (U-HRNet) を開発した。
U-HRNetはHRNetのバックボーンの代替であり、複数のセマンティックセグメンテーションと深さ予測データセットを大幅に改善することができる。
- 参考スコア(独自算出の注目度): 35.82572497996028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High resolution and advanced semantic representation are both vital for dense
prediction. Empirically, low-resolution feature maps often achieve stronger
semantic representation, and high-resolution feature maps generally can better
identify local features such as edges, but contains weaker semantic
information. Existing state-of-the-art frameworks such as HRNet has kept
low-resolution and high-resolution feature maps in parallel, and repeatedly
exchange the information across different resolutions. However, we believe that
the lowest-resolution feature map often contains the strongest semantic
information, and it is necessary to go through more layers to merge with
high-resolution feature maps, while for high-resolution feature maps, the
computational cost of each convolutional layer is very large, and there is no
need to go through so many layers. Therefore, we designed a U-shaped
High-Resolution Network (U-HRNet), which adds more stages after the feature map
with strongest semantic representation and relaxes the constraint in HRNet that
all resolutions need to be calculated parallel for a newly added stage. More
calculations are allocated to low-resolution feature maps, which significantly
improves the overall semantic representation. U-HRNet is a substitute for the
HRNet backbone and can achieve significant improvement on multiple semantic
segmentation and depth prediction datasets, under the exactly same training and
inference setting, with almost no increasing in the amount of calculation. Code
is available at PaddleSeg: https://github.com/PaddlePaddle/PaddleSeg.
- Abstract(参考訳): 高分解能と高度な意味表現はどちらも密度予測に不可欠である。
経験上、低解像度特徴マップはより強力な意味表現を達成し、高分解能特徴マップは一般にエッジのような局所的な特徴をより識別するが、より弱い意味情報を含む。
HRNetのような既存の最先端フレームワークは、低解像度と高解像度の機能マップを並列に保持し、異なる解像度で情報を繰り返し交換している。
しかし,低分解能特徴マップは,高分解能特徴マップとマージするために,より多くの層を通す必要があるが,高分解能特徴マップの場合,各畳み込み層の計算コストは非常に大きく,多くの層を通す必要もない。
そこで我々は,U字型高分解能ネットワーク (U-HRNet) を設計し,機能マップに最強のセマンティック表現を付加し,すべての解像度を並列に計算する必要のあるHRNetの制約を緩和する。
より多くの計算が低解像度の特徴マップに割り当てられ、全体の意味表現が大幅に改善される。
U-HRNetはHRNetのバックボーンの代用であり、全く同じトレーニングと推論設定の下で、複数のセマンティックセグメンテーションと深さ予測データセットで大幅に改善され、計算量がほとんど増加しない。
コードはPaddleSegのhttps://github.com/PaddlePaddle/PaddleSegで入手できる。
関連論文リスト
- Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
ビット深度圧縮は、微妙な変化のある領域で均一な深度表現を生成し、詳細情報の回復を妨げる。
密集したランダムノイズは、シーンのグローバルな幾何学的構造を推定する精度を低下させる。
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - FeatUp: A Model-Agnostic Framework for Features at Any Resolution [24.4201195336725]
FeatUpは、失われた空間情報を深い特徴で復元するためのタスクおよびモデルに依存しないフレームワークである。
FeatUpの2つのバリエーションを紹介します。1つは、1つのフォワードパスで高分解能信号で特徴を導くもので、もう1つは暗黙のモデルを1つのイメージに適合させて、任意の解像度で特徴を再構成するものです。
FeatUpは、クラスアクティベーションマップ生成、セグメンテーションとデプス予測のためのトランスファーラーニング、セグメンテーションのためのエンドツーエンドトレーニングにおいて、他の機能アップサンプリングや画像超解像アプローチよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-03-15T17:57:06Z) - HQDec: Self-Supervised Monocular Depth Estimation Based on a
High-Quality Decoder [14.67433946077953]
シーン深度を復元する高品質デコーダ(HQDec)を提案する。
コードとモデルはhrefhttps://github.com/fwucas/HQDecHQDec.comで公開される。
論文 参考訳(メタデータ) (2023-05-30T03:03:11Z) - Super-Resolving Face Image by Facial Parsing Information [52.1267613768555]
顔超解像は、低解像度の顔画像を対応する高解像度の画像に変換する技術である。
我々は,低解像度の顔画像から先行する顔を抽出する,新しい解析マップ付き顔超解像ネットワークを構築した。
高解像度特徴はより正確な空間情報を含み、低解像度特徴は強い文脈情報を提供する。
論文 参考訳(メタデータ) (2023-04-06T08:19:03Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation [14.81943833870932]
本稿では,2つの効果的な戦略を持つ改良DepthNet,HR-Depthを提案する。
resnet-18をエンコーダとして使用すると、hr-depthは、高解像度と低解像度の両方で最小パラマエターを持つ、以前の最先端(sota)メソッドをすべて上回る。
論文 参考訳(メタデータ) (2020-12-14T09:15:15Z) - OverNet: Lightweight Multi-Scale Super-Resolution with Overscaling
Network [3.6683231417848283]
SISRを任意のスケールで1つのモデルで解くための,深層でも軽量な畳み込みネットワークであるOverNetを紹介した。
我々のネットワークは、従来の手法よりも少ないパラメータを使用しながら、標準ベンチマークにおいて、過去の最先端結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-05T22:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。