論文の概要: Realtime CNN-based Keypoint Detector with Sobel Filter and CNN-based
Descriptor Trained with Keypoint Candidates
- arxiv url: http://arxiv.org/abs/2011.02119v1
- Date: Wed, 4 Nov 2020 04:11:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 22:14:12.611567
- Title: Realtime CNN-based Keypoint Detector with Sobel Filter and CNN-based
Descriptor Trained with Keypoint Candidates
- Title(参考訳): キーポイント候補を用いたソベルフィルタとCNNを用いたリアルタイムキーポイント検出
- Authors: Xun Yuan, Ke Hu, and Song Chen
- Abstract要約: 本稿では,2つのCNN,軽量なSobelNetとDesNetを導入し,キーポイントを検出し,局所的な局所記述子を計算する。
SobelNetは、近年のSOTA法と比較して、少ない計算で、より良い、または同等のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 5.113043087195202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The local feature detector and descriptor are essential in many computer
vision tasks, such as SLAM and 3D reconstruction. In this paper, we introduce
two separate CNNs, lightweight SobelNet and DesNet, to detect key points and to
compute dense local descriptors. The detector and the descriptor work in
parallel. Sobel filter provides the edge structure of the input images as the
input of CNN. The locations of key points will be obtained after exerting the
non-maximum suppression (NMS) process on the output map of the CNN. We design
Gaussian loss for the training process of SobelNet to detect corner points as
keypoints. At the same time, the input of DesNet is the original grayscale
image, and circle loss is used to train DesNet. Besides, output maps of
SobelNet are needed while training DesNet. We have evaluated our method on
several benchmarks including HPatches benchmark, ETH benchmark, and FM-Bench.
SobelNet achieves better or comparable performance with less computation
compared with SOTA methods in recent years. The inference time of an image of
640x480 is 7.59ms and 1.09ms for SobelNet and DesNet respectively on RTX 2070
SUPER.
- Abstract(参考訳): ローカル特徴検出器とディスクリプタは、SLAMや3D再構成など、多くのコンピュータビジョンタスクにおいて必須である。
本稿では,2つのCNN,軽量なSobelNetとDesNetを導入し,キーポイントを検出し,局所的な局所記述子を計算する。
検出器とディスクリプタは並列に動作します。
sobelフィルタはcnnの入力として入力画像のエッジ構造を提供する。
CNNの出力マップ上で、非最大抑制(NMS)プロセスを実行した後、キーポイントの位置を取得する。
コーナポイントをキーポイントとして検出するために,SobelNetのトレーニングプロセスにおいてガウス損失を設計する。
同時に、DesNetの入力は元のグレースケールイメージであり、円損失はDesNetのトレーニングに使用される。
さらに、DesNetのトレーニング中にSobelNetの出力マップが必要である。
我々はHPatchesベンチマーク、ETHベンチマーク、FM-Benchなどいくつかのベンチマークで評価を行った。
sobelnet は近年の sota メソッドよりも少ない計算で、より良い性能または同等の性能を実現している。
640x480の画像の推測時間は、それぞれRTX 2070 SUPER上のSobelNetとDesNetの7.59msと1.09msである。
関連論文リスト
- Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - Lightweight Salient Object Detection in Optical Remote Sensing Images
via Feature Correlation [93.80710126516405]
本稿では,これらの問題に対処する軽量ORSI-SODソリューションであるCorrNetを提案する。
それぞれのコンポーネントのパラメータと計算を減らし、CorrNetは4.09Mのパラメータしか持たず、21.09GのFLOPで実行している。
2つの公開データセットの実験結果から、私たちの軽量なCorrNetは、26の最先端メソッドと比較して、競争力やパフォーマンスがさらに向上することが示された。
論文 参考訳(メタデータ) (2022-01-20T08:28:01Z) - Factorial Convolution Neural Networks [0.0]
GoogleNetは、オブジェクト検出のための視覚的特徴を抽出するベース畳み込みニューラルネットワーク(CNN)の1つとして、かなりの注目を集めている。
FactorNet CNNは複数の独立したサブCNNで構成されており、深い視覚的特徴の異なる側面をエンコードしている。
FactorNetは、リアルタイムオブジェクト検出システムにおいて、KITTIオブジェクト検出ベンチマークデータセット全体を通して、GoolgleNet上でさらなるスピードアップを生成する。
論文 参考訳(メタデータ) (2021-11-13T09:02:53Z) - Pixel Difference Networks for Efficient Edge Detection [71.03915957914532]
本稿では,Pixel Difference Network (PiDiNet) という軽量かつ効率的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueのデータセットに関する大規模な実験が、その効果を示すために提供されている。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2021-08-16T10:42:59Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。