論文の概要: SHOP: A Deep Learning Based Pipeline for near Real-Time Detection of
Small Handheld Objects Present in Blurry Video
- arxiv url: http://arxiv.org/abs/2203.15228v1
- Date: Tue, 29 Mar 2022 04:31:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:43:02.294478
- Title: SHOP: A Deep Learning Based Pipeline for near Real-Time Detection of
Small Handheld Objects Present in Blurry Video
- Title(参考訳): SHOP:Blurryビデオに現れる小型ハンドヘルド物体のほぼリアルタイム検出のためのディープラーニングベースパイプライン
- Authors: Abhinav Ganguly, Amar C Gandhi, Sylvia E, Jeffrey D Chang, Ian M
Hudson
- Abstract要約: ハンドヘルドオブジェクトを含むぼやけた画像を確実に解釈するパイプラインであるSHOP(Small Handheld Object Pipeline)を提案する。
パイプラインの各段階で使用される具体的なモデルはフレキシブルで、パフォーマンス要件に基づいて変更可能である。
また、ハンドヘルドオブジェクトのみからなるMS COCOのサブセットを提示し、ハンドヘルドオブジェクト検出手法の開発を継続する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While prior works have investigated and developed computational models
capable of object detection, models still struggle to reliably interpret images
with motion blur and small objects. Moreover, none of these models are
specifically designed for handheld object detection. In this work, we present
SHOP (Small Handheld Object Pipeline), a pipeline that reliably and efficiently
interprets blurry images containing handheld objects. The specific models used
in each stage of the pipeline are flexible and can be changed based on
performance requirements. First, images are deblurred and then run through a
pose detection system where areas-of-interest are proposed around the hands of
any people present. Next, object detection is performed on the images by a
single-stage object detector. Finally, the proposed areas-of-interest are used
to filter out low confidence detections. Testing on a handheld subset of
Microsoft Common Objects in Context (MS COCO) demonstrates that this 3 stage
process results in a 70 percent decrease in false positives while only reducing
true positives by 17 percent in its strongest configuration. We also present a
subset of MS COCO consisting solely of handheld objects that can be used to
continue the development of handheld object detection methods.
https://github.com/spider-sense/SHOP
- Abstract(参考訳): 先行研究は物体検出が可能な計算モデルを調査し開発してきたが、モデルはまだ動きのぼやけや小さな物体で画像を確実に解釈するのに苦労している。
さらに、これらのモデルはハンドヘルドオブジェクト検出用に特別に設計されたものではない。
本研究では,ハンドヘルドオブジェクトを含むぼやけた画像を確実かつ効率的に解釈するパイプラインであるSHOP(Small Handheld Object Pipeline)を提案する。
パイプラインの各段階で使用される具体的なモデルはフレキシブルで、パフォーマンス要件に基づいて変更可能である。
まず、画像は青く染められ、そこにいる人の手の周りに興味のあるエリアが提案されるポーズ検出システムを介して実行される。
次に、単段物体検出器により画像上の物体検出を行う。
最後に、提案した関心領域を用いて低信頼度検出を行う。
microsoft common objects in context(ms coco)のハンドヘルドサブセット上でのテストでは、この3段階のプロセスによって偽陽性が70%減少し、強力な構成で真陽性が17%減少することが示されている。
また、ハンドヘルドオブジェクト検出法の開発を継続するために使用できるハンドヘルドオブジェクトのみからなるms cocoのサブセットも提示する。
https://github.com/spider-sense/SHOP
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - Visible and Clear: Finding Tiny Objects in Difference Map [50.54061010335082]
本稿では,検出モデルに自己再構成機構を導入し,それと微小物体との強い相関関係を明らかにする。
具体的には、再構成画像と入力の差分マップを構築して、検出器の首の内側に再構成ヘッドを配置し、小さな物体に対して高い感度を示す。
さらに、小さな特徴表現をより明確にするために、差分マップガイド機能拡張(DGFE)モジュールを開発する。
論文 参考訳(メタデータ) (2024-05-18T12:22:26Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Task-Focused Few-Shot Object Detection for Robot Manipulation [1.8275108630751844]
本研究では,検出のみに基づく操作手法を開発し,タスク中心の少数ショット検出を導入し,新しいオブジェクトや設定を学習する。
数ショット学習へのインタラクティブなアプローチの実験では、ロボットに検出からオブジェクトを直接操作するように訓練する(ClickBot)。
論文 参考訳(メタデータ) (2022-01-28T21:52:05Z) - Multi-patch Feature Pyramid Network for Weakly Supervised Object
Detection in Optical Remote Sensing Images [39.25541709228373]
マルチパッチ特徴ピラミッドネットワーク(MPFP-Net)を用いたオブジェクト検出のための新しいアーキテクチャを提案する。
MPFP-Netは、トレーニング中の最も差別的なパッチのみを追求する現在のモデルとは異なる。
残余値の正則化と核融合遷移層を厳密にノルム保存する有効な方法を提案する。
論文 参考訳(メタデータ) (2021-08-18T09:25:39Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Few-Shot Object Detection and Viewpoint Estimation for Objects in the
Wild [40.132988301147776]
少数ショットオブジェクト検出と少数ショット視点推定の問題に対処する。
両タスクにおいて,データから抽出したクラス表現機能を用いて,ネットワーク予測を導出する利点を実証する。
提案手法は,様々なデータセットに対して,最先端の手法よりも広いマージンで性能を向上する。
論文 参考訳(メタデータ) (2020-07-23T16:17:25Z) - Few-shot Object Detection on Remote Sensing Images [11.40135025181393]
リモートセンシング画像におけるオブジェクト検出のための数ショットの学習手法を提案する。
我々は、YOLOv3アーキテクチャに基づいて、少数ショットオブジェクト検出モデルを構築し、マルチスケールオブジェクト検出フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-14T07:18:10Z) - Underwater object detection using Invert Multi-Class Adaboost with deep
learning [37.14538666012363]
小型物体検出のための新しいニューラルネットワークアーキテクチャであるSample-WeIghted hyPEr Network(SWIPENet)を提案する。
提案するSWIPENet+IMAフレームワークは,複数の最先端オブジェクト検出手法に対して,検出精度の向上を実現する。
論文 参考訳(メタデータ) (2020-05-23T15:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。