論文の概要: An Adaptive Threshold for the Canny Edge Detection with Actor-Critic
Algorithm
- arxiv url: http://arxiv.org/abs/2209.08699v1
- Date: Mon, 19 Sep 2022 01:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:20:21.302363
- Title: An Adaptive Threshold for the Canny Edge Detection with Actor-Critic
Algorithm
- Title(参考訳): Actor-Criticアルゴリズムを用いたキャニーエッジ検出のための適応閾値
- Authors: Keong-Hun Choi and Jong-Eun Ha
- Abstract要約: ディープラーニングに基づくオブジェクト検出アルゴリズムでは、検出能力は古典的バックグラウンドサブトラクション(BGS)アルゴリズムよりも優れている。
本稿では、時間的・空間的な情報を抽出できる前景時間融合ネットワーク(STFN)を提案する。
提案アルゴリズムは、LASIESTAとSBIデータセットの最新のディープラーニング手法よりも11.28%と18.33%高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual surveillance aims to perform robust foreground object detection
regardless of the time and place. Object detection shows good results using
only spatial information, but foreground object detection in visual
surveillance requires proper temporal and spatial information processing. In
deep learning-based foreground object detection algorithms, the detection
ability is superior to classical background subtraction (BGS) algorithms in an
environment similar to training. However, the performance is lower than that of
the classical BGS algorithm in the environment different from training. This
paper proposes a spatio-temporal fusion network (STFN) that could extract
temporal and spatial information using a temporal network and a spatial
network. We suggest a method using a semi-foreground map for stable training of
the proposed STFN. The proposed algorithm shows excellent performance in an
environment different from training, and we show it through experiments with
various public datasets. Also, STFN can generate a compliant background image
in a semi-supervised method, and it can operate in real-time on a desktop with
GPU. The proposed method shows 11.28% and 18.33% higher FM than the latest deep
learning method in the LASIESTA and SBI dataset, respectively.
- Abstract(参考訳): 視覚的監視は、時間と場所に関わらず、堅牢な前景オブジェクト検出を行うことを目的としている。
物体検出は空間情報のみを用いて良好な結果を示すが、視覚的監視における前景物体検出には時間的・空間的情報処理が必要である。
深層学習に基づく前景物体検出アルゴリズムでは、学習に類似した環境下での古典的背景抽出(BGS)アルゴリズムよりも検出能力が優れている。
しかし,学習と異なる環境下では,従来のBGSアルゴリズムよりも性能が低い。
本稿では、時空間ネットワークと空間ネットワークを用いて時空間情報を抽出できる時空間融合ネットワーク(STFN)を提案する。
提案するstfnの安定トレーニングのための半フォアグラウンドマップを用いた手法を提案する。
提案手法は,トレーニングとは異なる環境での優れた性能を示し,各種データセットを用いた実験により示す。
また、STFNは半教師付き方式で準拠した背景画像を生成することができ、GPUを用いてデスクトップ上でリアルタイムに動作させることができる。
提案手法は, LASIESTA および SBI データセットにおける最新の深層学習法よりも 11.28% と 18.33% 高い FM を示す。
関連論文リスト
- FlightScope: An Experimental Comparative Review of Aircraft Detection Algorithms in Satellite Imagery [2.9687381456164004]
本稿では,衛星画像中の航空機を識別するタスク用にカスタマイズされた,高度な物体検出アルゴリズム群を批判的に評価し,比較する。
この研究は、YOLOバージョン5と8、より高速なRCNN、CenterNet、RetinaNet、RTMDet、DETRを含む一連の方法論を含む。
YOLOv5は空中物体検出のための堅牢なソリューションとして登場し、平均的精度、リコール、ユニオンのスコアに対するインターセクションによってその重要性を裏付けている。
論文 参考訳(メタデータ) (2024-04-03T17:24:27Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Landmark-based Localization using Stereo Vision and Deep Learning in
GPS-Denied Battlefield Environment [1.19658449368018]
本稿では、受動カメラセンサのみを用いた非GPS戦場環境におけるローカライズのための新しいフレームワークを提案する。
提案手法では,距離推定にカスタムキャリブレーションされたステレオカメラと,実世界のランドマーク認識のためのデータセットを用いて訓練および微調整を行うYOLOv8sモデルを用いる。
実験の結果,提案手法は既存のアンカーベースDV-Hopアルゴリズムよりも優れた性能を示し,ローカライゼーション誤差(RMSE)の点で最も効率的な視覚ベースアルゴリズムと競合することがわかった。
論文 参考訳(メタデータ) (2024-02-19T21:20:56Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Scale Normalized Image Pyramids with AutoFocus for Object Detection [75.71320993452372]
スケール正規化画像ピラミッド(SNIP)が生成され、人間の視覚と同様に、異なるスケールで固定されたサイズ範囲内のオブジェクトにのみ参加する。
本研究では,オブジェクトを含む可能性のある固定サイズのサブリージョンのみで動作する,効率的な空間サブサンプリング手法を提案する。
結果のアルゴリズムはAutoFocusと呼ばれ、SNIPを使用する場合の推論では2.5~5倍のスピードアップとなる。
論文 参考訳(メタデータ) (2021-02-10T18:57:53Z) - Lightweight Convolutional Neural Network with Gaussian-based Grasping
Representation for Robotic Grasping Detection [4.683939045230724]
現在の物体検出器は、高い精度と高速な推論速度のバランスを取るのが難しい。
ロボットつかみポーズ推定を行うための効率的かつ堅牢な完全畳み込みニューラルネットワークモデルを提案する。
ネットワークは、他の優れたアルゴリズムよりも桁違いに小さい順序です。
論文 参考訳(メタデータ) (2021-01-25T16:36:53Z) - Spatio-temporal Data Augmentation for Visual Surveillance [0.0]
視覚的監視に適したデータ拡張手法を提案し,さらなる性能向上を図る。
背景モデル画像と過去の画像を調整する2つのデータ拡張手法を提案する。
静的オブジェクトやゴーストオブジェクトなどの難しい領域において,従来の研究と比較して性能が向上することが示された。
論文 参考訳(メタデータ) (2021-01-25T04:55:10Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - Denoising IMU Gyroscopes with Deep Learning for Open-Loop Attitude
Estimation [0.0]
本稿では,慣性計測ユニット(IMU)のジャイロスコープを地中真実データを用いて識別する学習手法を提案する。
得られたアルゴリズムは、(目に見えない)テストシーケンスで最先端の処理を行う。
論文 参考訳(メタデータ) (2020-02-25T08:04:31Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。