論文の概要: Fast, Accurate Barcode Detection in Ultra High-Resolution Images
- arxiv url: http://arxiv.org/abs/2102.06868v1
- Date: Sat, 13 Feb 2021 05:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 04:12:54.047613
- Title: Fast, Accurate Barcode Detection in Ultra High-Resolution Images
- Title(参考訳): 超高解像度画像における高速高精度バーコード検出
- Authors: Jerome Quenum, Kehan Wang, Avideh Zakhor
- Abstract要約: UHR画像におけるバーコードの高速かつ正確な検出を実現するためにセマンティックセグメンテーションを提案する。
エンドツーエンドシステムは16ミリ秒のレイテンシを持ち、YOLOv4よりも2.5回$高速で、Mask RCNNよりも5.9回$高速です。
精度の面では, YOLOv4 と Mask R-CNN をそれぞれ$mAP$5.5%, 47.1% で上回っている。
- 参考スコア(独自算出の注目度): 1.160208922584163
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Object detection in Ultra High-Resolution (UHR) images has long been a
challenging problem in computer vision due to the varying scales of the
targeted objects. When it comes to barcode detection, resizing UHR input images
to smaller sizes often leads to the loss of pertinent information, while
processing them directly is highly inefficient and computationally expensive.
In this paper, we propose using semantic segmentation to achieve a fast and
accurate detection of barcodes of various scales in UHR images. Our pipeline
involves a modified Region Proposal Network (RPN) on images of size greater
than 10k$\times$10k and a newly proposed Y-Net segmentation network, followed
by a post-processing workflow for fitting a bounding box around each segmented
barcode mask. The end-to-end system has a latency of 16 milliseconds, which is
$2.5\times$ faster than YOLOv4 and $5.9\times$ faster than Mask RCNN. In terms
of accuracy, our method outperforms YOLOv4 and Mask R-CNN by a $mAP$ of 5.5%
and 47.1% respectively, on a synthetic dataset. We have made available the
generated synthetic barcode dataset and its code at
http://www.github.com/viplab/BSBD/.
- Abstract(参考訳): 超高分解能(UHR)画像における物体検出は、対象物のスケールが異なるため、長い間コンピュータビジョンにおいて困難な問題でした。
バーコード検出に関しては、UHR入力イメージを小さなサイズに再サイズすることは、しばしば関連する情報の損失につながりますが、直接処理することは非常に非効率で計算的に高価です。
本稿では,UHR画像の様々なスケールのバーコードを高速かつ正確に検出するセマンティックセグメンテーションを提案する。
私たちのパイプラインでは、10k$\times$10k以上の画像の修正されたリージョン提案ネットワーク(rpn)と、新たに提案されたy-netセグメンテーションネットワークと、各セグメンテーションバーコードマスクにバウンディングボックスを配置する後処理ワークフローが関与しています。
エンドツーエンドのシステムは16ミリ秒のレイテンシを持ち、YOLOv4より2.5\times$、Mask RCNNより5.9\times$速い。
精度の面では, 合成データセット上で, YOLOv4 と Mask R-CNN をそれぞれ$mAP$ 5.5% と 47.1% で比較した。
生成された合成バーコードデータセットとそのコードはhttp://www.github.com/viplab/BSBD/で公開しました。
関連論文リスト
- DDU-Net: A Domain Decomposition-based CNN for High-Resolution Image Segmentation on Multiple GPUs [46.873264197900916]
ドメイン分解に基づくU-Netアーキテクチャを導入し、入力イメージを重複しないパッチに分割する。
空間コンテキストの理解を高めるために、パッチ間情報交換を容易にするための通信ネットワークが追加される。
その結果、この手法は、パッチ間通信のない同一ネットワークと比較して、IoU(Universal over Union)スコアよりも2~3,%高い交点を達成できることが判明した。
論文 参考訳(メタデータ) (2024-07-31T01:07:21Z) - Multi-resolution Rescored ByteTrack for Video Object Detection on Ultra-low-power Embedded Systems [13.225654514930595]
Multi-Resolution Rescored Byte-Track (MR2-ByteTrack)は、超低消費電力組み込みプロセッサのための新しいビデオオブジェクト検出フレームワークである。
MR2-ByteTrackは、市販のDeep Neural Networkベースのオブジェクト検出器の平均計算負荷を最大2.25$times$に削減する。
GAP9マイクロコントローラでは,平均精度が2.16%,遅延が43%向上した。
論文 参考訳(メタデータ) (2024-04-17T15:45:49Z) - Rapid-INR: Storage Efficient CPU-free DNN Training Using Implicit Neural Representation [7.539498729072623]
Implicit Neural Representation (INR) は、複雑な形状や物体を、その形状や表面構造を明確に定義せずに表現するための革新的なアプローチである。
従来の研究では、画像圧縮のINRとしてニューラルネットワークを使用することの有効性が実証されており、JPEGのような従来の手法に匹敵する性能を示している。
本稿では、画像のエンコーディングと圧縮にINRを利用する新しいアプローチであるRapid-INRを紹介し、コンピュータビジョンタスクにおけるニューラルネットワークトレーニングを高速化する。
論文 参考訳(メタデータ) (2023-06-29T05:49:07Z) - Building Flyweight FLIM-based CNNs with Adaptive Decoding for Object
Detection [40.97322222472642]
本研究では、ユーザ描画マーカーからオブジェクトを検出するために、畳み込みニューラルネットワーク(CNN)層を構築する方法を提案する。
糞便サンプルの顕微鏡画像におけるSchistosomiasis mansoni卵の検出と,衛星画像における船舶の検出に対処する。
我々のCNNは、SOTAオブジェクト検出器より数千倍も小さく、CPU実行に適している。
論文 参考訳(メタデータ) (2023-06-26T16:48:20Z) - {\mu}Split: efficient image decomposition for microscopy data [50.794670705085835]
muSplitは、蛍光顕微鏡画像の文脈で訓練された画像分解のための専用アプローチである。
本稿では,大規模な画像コンテキストのメモリ効率向上を実現するメタアーキテクチャである横型文脈化(LC)を提案する。
muSplitを5つの分解タスクに適用し、1つは合成データセットに、もう4つは実際の顕微鏡データから導出する。
論文 参考訳(メタデータ) (2022-11-23T11:26:24Z) - SuperYOLO: Super Resolution Assisted Object Detection in Multimodal
Remote Sensing Imagery [36.216230299131404]
マルチモーダルデータを融合し,マルチスケールオブジェクトに対して高分解能(HR)オブジェクト検出を行うSuperYOLOを提案する。
提案モデルでは,最先端モデルと比較して,精度と速度のトレードオフが良好である。
論文 参考訳(メタデータ) (2022-09-27T12:58:58Z) - Small Lesion Segmentation in Brain MRIs with Subpixel Embedding [105.1223735549524]
ヒト脳のMRIスキャンを虚血性脳梗塞と正常組織に分割する方法を提案する。
本稿では,空間展開埋め込みネットワークによって予測を導出する標準エンコーダデコーダの形式でニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-18T00:21:17Z) - CNNs for JPEGs: A Study in Computational Cost [49.97673761305336]
畳み込みニューラルネットワーク(CNN)は過去10年間で驚くべき進歩を遂げてきた。
CNNはRGBピクセルから直接データの堅牢な表現を学習することができる。
近年,圧縮領域から直接学習できる深層学習手法が注目されている。
論文 参考訳(メタデータ) (2020-12-26T15:00:10Z) - Real-Time Resource Allocation for Tracking Systems [54.802447204921634]
本稿では,人物検出装置を画像の関連部分にのみ適用することにより,コストを大幅に削減するEmphPartiMaxというアルゴリズムを提案する。
PartiMaxは、イメージ内の$n$候補のEmphpixelボックスの$k$を選択するために、パーティクルフィルタの情報を利用する。
本システムでは,画像中のピクセルボックスの10%しか処理しないが,すべてのピクセルボックスを処理する場合,元のトラッキング性能の80%を維持している。
論文 参考訳(メタデータ) (2020-09-21T08:29:05Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。