論文の概要: SHOP: A Deep Learning Based Pipeline for near Real-Time Detection of
Small Handheld Objects Present in Blurry Video
- arxiv url: http://arxiv.org/abs/2203.15228v1
- Date: Tue, 29 Mar 2022 04:31:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:43:02.294478
- Title: SHOP: A Deep Learning Based Pipeline for near Real-Time Detection of
Small Handheld Objects Present in Blurry Video
- Title(参考訳): SHOP:Blurryビデオに現れる小型ハンドヘルド物体のほぼリアルタイム検出のためのディープラーニングベースパイプライン
- Authors: Abhinav Ganguly, Amar C Gandhi, Sylvia E, Jeffrey D Chang, Ian M
Hudson
- Abstract要約: ハンドヘルドオブジェクトを含むぼやけた画像を確実に解釈するパイプラインであるSHOP(Small Handheld Object Pipeline)を提案する。
パイプラインの各段階で使用される具体的なモデルはフレキシブルで、パフォーマンス要件に基づいて変更可能である。
また、ハンドヘルドオブジェクトのみからなるMS COCOのサブセットを提示し、ハンドヘルドオブジェクト検出手法の開発を継続する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While prior works have investigated and developed computational models
capable of object detection, models still struggle to reliably interpret images
with motion blur and small objects. Moreover, none of these models are
specifically designed for handheld object detection. In this work, we present
SHOP (Small Handheld Object Pipeline), a pipeline that reliably and efficiently
interprets blurry images containing handheld objects. The specific models used
in each stage of the pipeline are flexible and can be changed based on
performance requirements. First, images are deblurred and then run through a
pose detection system where areas-of-interest are proposed around the hands of
any people present. Next, object detection is performed on the images by a
single-stage object detector. Finally, the proposed areas-of-interest are used
to filter out low confidence detections. Testing on a handheld subset of
Microsoft Common Objects in Context (MS COCO) demonstrates that this 3 stage
process results in a 70 percent decrease in false positives while only reducing
true positives by 17 percent in its strongest configuration. We also present a
subset of MS COCO consisting solely of handheld objects that can be used to
continue the development of handheld object detection methods.
https://github.com/spider-sense/SHOP
- Abstract(参考訳): 先行研究は物体検出が可能な計算モデルを調査し開発してきたが、モデルはまだ動きのぼやけや小さな物体で画像を確実に解釈するのに苦労している。
さらに、これらのモデルはハンドヘルドオブジェクト検出用に特別に設計されたものではない。
本研究では,ハンドヘルドオブジェクトを含むぼやけた画像を確実かつ効率的に解釈するパイプラインであるSHOP(Small Handheld Object Pipeline)を提案する。
パイプラインの各段階で使用される具体的なモデルはフレキシブルで、パフォーマンス要件に基づいて変更可能である。
まず、画像は青く染められ、そこにいる人の手の周りに興味のあるエリアが提案されるポーズ検出システムを介して実行される。
次に、単段物体検出器により画像上の物体検出を行う。
最後に、提案した関心領域を用いて低信頼度検出を行う。
microsoft common objects in context(ms coco)のハンドヘルドサブセット上でのテストでは、この3段階のプロセスによって偽陽性が70%減少し、強力な構成で真陽性が17%減少することが示されている。
また、ハンドヘルドオブジェクト検出法の開発を継続するために使用できるハンドヘルドオブジェクトのみからなるms cocoのサブセットも提示する。
https://github.com/spider-sense/SHOP
関連論文リスト
- DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - Task-Focused Few-Shot Object Detection for Robot Manipulation [1.8275108630751844]
本研究では,検出のみに基づく操作手法を開発し,タスク中心の少数ショット検出を導入し,新しいオブジェクトや設定を学習する。
数ショット学習へのインタラクティブなアプローチの実験では、ロボットに検出からオブジェクトを直接操作するように訓練する(ClickBot)。
論文 参考訳(メタデータ) (2022-01-28T21:52:05Z) - Multi-patch Feature Pyramid Network for Weakly Supervised Object
Detection in Optical Remote Sensing Images [39.25541709228373]
マルチパッチ特徴ピラミッドネットワーク(MPFP-Net)を用いたオブジェクト検出のための新しいアーキテクチャを提案する。
MPFP-Netは、トレーニング中の最も差別的なパッチのみを追求する現在のモデルとは異なる。
残余値の正則化と核融合遷移層を厳密にノルム保存する有効な方法を提案する。
論文 参考訳(メタデータ) (2021-08-18T09:25:39Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Few-Shot Object Detection and Viewpoint Estimation for Objects in the
Wild [40.132988301147776]
少数ショットオブジェクト検出と少数ショット視点推定の問題に対処する。
両タスクにおいて,データから抽出したクラス表現機能を用いて,ネットワーク予測を導出する利点を実証する。
提案手法は,様々なデータセットに対して,最先端の手法よりも広いマージンで性能を向上する。
論文 参考訳(メタデータ) (2020-07-23T16:17:25Z) - Few-shot Object Detection on Remote Sensing Images [11.40135025181393]
リモートセンシング画像におけるオブジェクト検出のための数ショットの学習手法を提案する。
我々は、YOLOv3アーキテクチャに基づいて、少数ショットオブジェクト検出モデルを構築し、マルチスケールオブジェクト検出フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-14T07:18:10Z) - Underwater object detection using Invert Multi-Class Adaboost with deep
learning [37.14538666012363]
小型物体検出のための新しいニューラルネットワークアーキテクチャであるSample-WeIghted hyPEr Network(SWIPENet)を提案する。
提案するSWIPENet+IMAフレームワークは,複数の最先端オブジェクト検出手法に対して,検出精度の向上を実現する。
論文 参考訳(メタデータ) (2020-05-23T15:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。