論文の概要: Accurate Gigapixel Crowd Counting by Iterative Zooming and Refinement
- arxiv url: http://arxiv.org/abs/2305.09271v1
- Date: Tue, 16 May 2023 08:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 15:46:55.412043
- Title: Accurate Gigapixel Crowd Counting by Iterative Zooming and Refinement
- Title(参考訳): 反復ズーム・リファインメントによる正確なギガピクセル集団数
- Authors: Arian Bakhtiarnia, Qi Zhang and Alexandros Iosifidis
- Abstract要約: GigaZoomは画像の最も密度の高い領域を反復的にズームし、より詳細な粗い密度マップを洗練します。
ギガZoomは,ギガピクセルの群衆計数のための最先端技術を取得し,次のベストメソッドの精度を42%向上させることを示す。
- 参考スコア(独自算出の注目度): 90.76576712433595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing prevalence of gigapixel resolutions has presented new
challenges for crowd counting. Such resolutions are far beyond the memory and
computation limits of current GPUs, and available deep neural network
architectures and training procedures are not designed for such massive inputs.
Although several methods have been proposed to address these challenges, they
are either limited to downsampling the input image to a small size, or
borrowing from other gigapixel tasks, which are not tailored for crowd
counting. In this paper, we propose a novel method called GigaZoom, which
iteratively zooms into the densest areas of the image and refines coarser
density maps with finer details. Through experiments, we show that GigaZoom
obtains the state-of-the-art for gigapixel crowd counting and improves the
accuracy of the next best method by 42%.
- Abstract(参考訳): ギガピクセルの解像度の増加は、群衆数に新たな課題をもたらした。
このような解像度は、現在のGPUのメモリと計算限界をはるかに超えており、利用可能なディープニューラルネットワークアーキテクチャやトレーニング手順は、そのような大規模な入力のために設計されていない。
これらの課題に対処するためにいくつかの手法が提案されているが、これらは入力画像を小さなサイズに縮小するか、あるいは群衆のカウントには適さない他のギガピクセルタスクから借用することに限定されている。
本稿では,画像の最も密度の高い領域を反復的に拡大し,より詳細な粗い密度マップを洗練するgigazoomという新しい手法を提案する。
実験により,gigazoomはギガピクセル群数に対する最先端の精度を得,次善の手法の精度を42%向上させることを示した。
関連論文リスト
- SaccadeDet: A Novel Dual-Stage Architecture for Rapid and Accurate Detection in Gigapixel Images [50.742420049839474]
SaccadeDetは、人間の目の動きにインスパイアされた、ギガピクセルレベルの物体検出のための革新的なアーキテクチャである。
PANDAデータセットを用いて評価した本手法は,最先端手法の8倍の高速化を実現する。
また、全スライドイメージングへの応用を通じて、ギガピクセルレベルの病理解析に有意な可能性を示す。
論文 参考訳(メタデータ) (2024-07-25T11:22:54Z) - Towards Efficient and Scale-Robust Ultra-High-Definition Image
Demoireing [71.62289021118983]
本研究では、4Kモアレ画像に対処する効率的なベースラインモデルESDNetを提案する。
我々の手法は、より軽量でありながら、最先端の手法よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-07-20T14:20:52Z) - Any-resolution Training for High-resolution Image Synthesis [55.19874755679901]
生成モデルは、様々な大きさの自然画像であっても、一定の解像度で動作します。
すべてのピクセルが重要であり、そのネイティブ解像度で収集された可変サイズのイメージを持つデータセットを作成する、と我々は主張する。
ランダムなスケールでパッチをサンプリングし、可変出力解像度で新しいジェネレータを訓練するプロセスである。
論文 参考訳(メタデータ) (2022-04-14T17:59:31Z) - Generating Superpixels for High-resolution Images with Decoupled Patch
Calibration [82.21559299694555]
Patch Networks (PCNet) は高解像度のスーパーピクセルセグメンテーションを効率的かつ正確に実装するように設計されている。
DPCは高解像度画像から局所パッチを取得し、動的にバイナリマスクを生成し、ネットワークを領域境界に集中させる。
特に、DPCは高解像度画像からローカルパッチを取り、動的にバイナリマスクを生成して、ネットワークを領域境界に集中させる。
論文 参考訳(メタデータ) (2021-08-19T10:33:05Z) - Cascaded Residual Density Network for Crowd Counting [63.714719914701014]
本研究では, 群衆数に対する高品質な密度マップを高精度に作成するために, 粗大なアプローチで新しいカスケード残差密度ネットワーク(CRDNet)を提案する。
新たな局所的カウント損失が示され、群衆カウントの精度が向上する。
論文 参考訳(メタデータ) (2021-07-29T03:07:11Z) - Efficient Classification of Very Large Images with Tiny Objects [15.822654320750054]
Zoom-Inネットワークと呼ばれるエンドツーエンドCNNモデルを用いて,大容量画像を小さなオブジェクトで分類する。
本研究では,2つの大画像データセットと1ギガピクセルデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-06-04T20:13:04Z) - Implicit Integration of Superpixel Segmentation into Fully Convolutional
Networks [11.696069523681178]
スーパーピクセル方式をCNNに暗黙的に統合する方法を提案する。
提案手法では,下地層に画素を階層的にグループ化し,スーパーピクセルを生成する。
本手法は,セマンティックセグメンテーション,スーパーピクセルセグメンテーション,モノクル深度推定などのタスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:20:26Z) - Contextual Residual Aggregation for Ultra High-Resolution Image
Inpainting [12.839962012888199]
そこで本稿では,CRA(Contextual Residual Aggregation)機構を提案する。
CRA機構は、コンテキストパッチからの残基の重み付けにより、欠落した内容に対して高周波残基を生成する。
提案手法は,解像度512×512の小型画像に対して学習し,高解像度画像に対する推論を行い,良好な塗装品質を実現する。
論文 参考訳(メタデータ) (2020-05-19T18:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。