論文の概要: Generating Superpixels for High-resolution Images with Decoupled Patch
Calibration
- arxiv url: http://arxiv.org/abs/2108.08607v1
- Date: Thu, 19 Aug 2021 10:33:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 22:33:18.442528
- Title: Generating Superpixels for High-resolution Images with Decoupled Patch
Calibration
- Title(参考訳): デカップリングパッチ校正による高解像度画像のスーパーピクセル生成
- Authors: Yaxiong Wang and Yuchao Wei and Xueming Qian and Li Zhu and Yi Yang
- Abstract要約: Patch Networks (PCNet) は高解像度のスーパーピクセルセグメンテーションを効率的かつ正確に実装するように設計されている。
DPCは高解像度画像から局所パッチを取得し、動的にバイナリマスクを生成し、ネットワークを領域境界に集中させる。
特に、DPCは高解像度画像からローカルパッチを取り、動的にバイナリマスクを生成して、ネットワークを領域境界に集中させる。
- 参考スコア(独自算出の注目度): 42.58513848319921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Superpixel segmentation has recently seen important progress benefiting from
the advances in differentiable deep learning. However, the very high-resolution
superpixel segmentation still remains challenging due to the expensive memory
and computation cost, making the current advanced superpixel networks fail to
process. In this paper, we devise Patch Calibration Networks (PCNet), aiming to
efficiently and accurately implement high-resolution superpixel segmentation.
PCNet follows the principle of producing high-resolution output from
low-resolution input for saving GPU memory and relieving computation cost. To
recall the fine details destroyed by the down-sampling operation, we propose a
novel Decoupled Patch Calibration (DPC) branch for collaboratively augment the
main superpixel generation branch. In particular, DPC takes a local patch from
the high-resolution images and dynamically generates a binary mask to impose
the network to focus on region boundaries. By sharing the parameters of DPC and
main branches, the fine-detailed knowledge learned from high-resolution patches
will be transferred to help calibrate the destroyed information. To the best of
our knowledge, we make the first attempt to consider the deep-learning-based
superpixel generation for high-resolution cases. To facilitate this research,
we build evaluation benchmarks from two public datasets and one new constructed
one, covering a wide range of diversities from fine-grained human parts to
cityscapes. Extensive experiments demonstrate that our PCNet can not only
perform favorably against the state-of-the-arts in the quantitative results but
also improve the resolution upper bound from 3K to 5K on 1080Ti GPUs.
- Abstract(参考訳): スーパーピクセルのセグメンテーションは最近、差別化可能なディープラーニングの進歩から大きな進歩を遂げている。
しかし、非常に高解像度のスーパーピクセルセグメンテーションは、高価なメモリと計算コストのために依然として困難であり、現在の高度なスーパーピクセルネットワークは処理に失敗している。
本稿では,高分解能スーパーピクセルセグメンテーションを効率的かつ正確に実装することを目的としたパッチキャリブレーションネットワーク(pcnet)を考案する。
PCNetは、GPUメモリの節約と計算コストの軽減のために、低解像度入力から高解像度出力を生成するという原則に従っている。
ダウンサンプリング操作によって破壊された細部を思い出すために,本スーパーピクセル生成部を協調的に増強する新しいデカップリングパッチ校正(DPC)ブランチを提案する。
特に、DPCは高解像度画像からローカルパッチを取り、動的にバイナリマスクを生成して、ネットワークを領域境界に集中させる。
dpcとメインブランチのパラメータを共有することで、高解像度パッチから学んだ詳細な知識を転送し、破壊した情報を校正する。
私たちの知る限りでは、ディープラーニングベースのスーパーピクセル生成を高解像度ケースで検討する最初の試みをしました。
本研究では,2つの公開データセットと1つの新しい構築データセットから評価ベンチマークを構築し,人間の細粒度から都市景観まで幅広い多様性をカバーした。
大規模な実験により、PCNetは定量化結果の最先端に対して良好に機能するだけでなく、1080Ti GPU上での3Kから5Kへの上界の分解能も向上できることが示された。
関連論文リスト
- HRDecoder: High-Resolution Decoder Network for Fundus Image Lesion Segmentation [12.606794661369959]
骨盤病変分割のための簡易高分解能デコーダネットワークHRDecoderを提案する。
高精細な局所的特徴を捉えるための高精細な表現学習モジュールと、マルチスケールの予測を融合する高精細な融合モジュールを統合している。
本手法は, 適正なメモリと計算オーバーヘッドを消費し, 推論速度の満足度を維持しながら, 足底部病変の全体的なセグメンテーション精度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-11-06T15:13:31Z) - SaccadeDet: A Novel Dual-Stage Architecture for Rapid and Accurate Detection in Gigapixel Images [50.742420049839474]
SaccadeDetは、人間の目の動きにインスパイアされた、ギガピクセルレベルの物体検出のための革新的なアーキテクチャである。
PANDAデータセットを用いて評価した本手法は,最先端手法の8倍の高速化を実現する。
また、全スライドイメージングへの応用を通じて、ギガピクセルレベルの病理解析に有意な可能性を示す。
論文 参考訳(メタデータ) (2024-07-25T11:22:54Z) - PTSR: Patch Translator for Image Super-Resolution [16.243363392717434]
画像超解像(PTSR)のためのパッチトランスレータを提案し,この問題に対処する。
提案するPTSRは、畳み込み動作のないトランスフォーマーベースGANネットワークである。
マルチヘッドアテンションを利用した改良パッチを再生するための新しいパッチトランスレータモジュールを提案する。
論文 参考訳(メタデータ) (2023-10-20T01:45:00Z) - Pixel Adapter: A Graph-Based Post-Processing Approach for Scene Text
Image Super-Resolution [22.60056946339325]
アップサンプリングによる画素歪みに対処するために,グラフアテンションに基づくPixel Adapter Module (PAM)を提案する。
PAMは、各ピクセルが隣人と対話し、機能を更新することで、ローカルな構造情報を効果的にキャプチャする。
提案手法は,従来の認識精度を上回り,高品質な超解像を生成することを実証する。
論文 参考訳(メタデータ) (2023-09-16T08:12:12Z) - Unsupervised Superpixel Generation using Edge-Sparse Embedding [18.92698251515116]
特徴に対する画素の類似性に基づいて画像をスーパーピクセルに分割することは、データの複雑さを著しく減らし、その後の画像処理タスクを改善する。
コントラストの少ない非畳み込み画像デコーダを提案し、再構成画像にスムーズで接続されたエッジを強制する。
我々はデコーダの最後に隠された層から、余分な空間情報をスムーズなアクティベーションマップに符号化してエッジスパース画素埋め込みを生成し、標準クラスタリングアルゴリズムを用いて高品質なスーパーピクセルを抽出する。
論文 参考訳(メタデータ) (2022-11-28T15:55:05Z) - Rethinking Resolution in the Context of Efficient Video Recognition [49.957690643214576]
クロスレゾリューションKD(ResKD)は、低解像度フレームでの認識精度を高めるための単純だが効果的な方法である。
我々は,最先端アーキテクチャ,すなわち3D-CNNとビデオトランスフォーマーに対して,その効果を広く示す。
論文 参考訳(メタデータ) (2022-09-26T15:50:44Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Small Lesion Segmentation in Brain MRIs with Subpixel Embedding [105.1223735549524]
ヒト脳のMRIスキャンを虚血性脳梗塞と正常組織に分割する方法を提案する。
本稿では,空間展開埋め込みネットワークによって予測を導出する標準エンコーダデコーダの形式でニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-18T00:21:17Z) - Implicit Integration of Superpixel Segmentation into Fully Convolutional
Networks [11.696069523681178]
スーパーピクセル方式をCNNに暗黙的に統合する方法を提案する。
提案手法では,下地層に画素を階層的にグループ化し,スーパーピクセルを生成する。
本手法は,セマンティックセグメンテーション,スーパーピクセルセグメンテーション,モノクル深度推定などのタスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:20:26Z) - Exploiting Raw Images for Real-Scene Super-Resolution [105.18021110372133]
本稿では,合成データと実撮影画像とのギャップを埋めるために,実シーンにおける単一画像の超解像化の問題について検討する。
本稿では,デジタルカメラの撮像過程を模倣して,よりリアルなトレーニングデータを生成する手法を提案する。
また、原画像に記録された放射情報を活用するために、2分岐畳み込みニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2021-02-02T16:10:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。