論文の概要: LSDNet: Trainable Modification of LSD Algorithm for Real-Time Line
Segment Detection
- arxiv url: http://arxiv.org/abs/2209.04642v1
- Date: Sat, 10 Sep 2022 11:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:15:35.729498
- Title: LSDNet: Trainable Modification of LSD Algorithm for Real-Time Line
Segment Detection
- Title(参考訳): LSDNet:リアルタイムラインセグメント検出のためのLSDアルゴリズムのトレーニング可能な修正
- Authors: Lev Teplyakov, Leonid Erlygin, Evgeny Shvets
- Abstract要約: 我々は、軽量CNNを古典的なLCD検出器に組み込むことで、正確かつ高速なCNNベースの検出器であるLSDNetを構築した。
標準的なWireframeデータセット上のいくつかの現代の線分検出器と比較して、LSDNetは競争精度78 Fhの214 FPSの最高速度(CNNベースの検出器)を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As of today, the best accuracy in line segment detection (LSD) is achieved by
algorithms based on convolutional neural networks - CNNs. Unfortunately, these
methods utilize deep, heavy networks and are slower than traditional
model-based detectors. In this paper we build an accurate yet fast CNN- based
detector, LSDNet, by incorporating a lightweight CNN into a classical LSD
detector. Specifically, we replace the first step of the original LSD algorithm
- construction of line segments heatmap and tangent field from raw image
gradients - with a lightweight CNN, which is able to calculate more complex and
rich features. The second part of the LSD algorithm is used with only minor
modifications. Compared with several modern line segment detectors on standard
Wireframe dataset, the proposed LSDNet provides the highest speed (among
CNN-based detectors) of 214 FPS with a competitive accuracy of 78 Fh . Although
the best-reported accuracy is 83 Fh at 33 FPS, we speculate that the observed
accuracy gap is caused by errors in annotations and the actual gap is
significantly lower. We point out systematic inconsistencies in the annotations
of popular line detection benchmarks - Wireframe and York Urban, carefully
reannotate a subset of images and show that (i) existing detectors have
improved quality on updated annotations without retraining, suggesting that new
annotations correlate better with the notion of correct line segment detection;
(ii) the gap between accuracies of our detector and others diminishes to
negligible 0.2 Fh , with our method being the fastest.
- Abstract(参考訳): 今日現在、ラインセグメント検出(LSD)における最良の精度は、畳み込みニューラルネットワーク(CNN)に基づくアルゴリズムによって達成されている。
残念ながら、これらの方法は深くて重いネットワークを使用し、従来のモデルベースの検出器よりも遅い。
本稿では,従来のLCD検出器に軽量CNNを組み込むことにより,高精度かつ高速なCNNベース検出器LSDNetを構築する。
具体的には、最初のlsdアルゴリズムの最初のステップ - 線分ヒートマップと接フィールドを生の画像勾配から構築する - を、より複雑でリッチな特徴を計算可能な軽量なcnnに置き換える。
LSDアルゴリズムの第2部は、小さな修正のみで使用される。
標準的なWireframeデータセット上のいくつかのラインセグメント検出器と比較して、提案されたLSDNetは、競争精度78 Fhの214 FPSの最高速度(CNNベースの検出器)を提供する。
最良報告精度は33FPSの83Fhであるが, 検出精度の差はアノテーションの誤りによるものであり, 実際の差は著しく低いと推測する。
一般的な線検出ベンチマーク - Wireframe と York Urban - のアノテーションにおける体系的な矛盾を指摘し、画像のサブセットを慎重に再注釈し、そのことを示す。
(i)既存の検知器は、再トレーニングせずに更新されたアノテーションの品質を改善しており、新しいアノテーションは正しい線分検出の概念とよく相関していることを示唆している。
(II)検出器と他の装置の精度の差は0.2Fhに減少し,本手法は最速である。
関連論文リスト
- Learning to Make Keypoints Sub-Pixel Accurate [80.55676599677824]
本研究は,2次元局所特徴の検出におけるサブピクセル精度の課題に対処する。
本稿では,検出された特徴に対するオフセットベクトルを学習することにより,サブピクセル精度で検出器を拡張できる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T12:39:56Z) - Instant Complexity Reduction in CNNs using Locality-Sensitive Hashing [50.79602839359522]
本稿では,パラメータフリーでデータフリーなモジュールであるHASTE(Hashing for Tractable Efficiency)を提案する。
局所性感応ハッシュ (LSH) を用いることで, 精度を犠牲にすることなく, 遅延特徴写像を劇的に圧縮することができる。
特に、HASTEモジュール用のCIFAR-10上のResNet34で畳み込みモジュールを切り替えるだけで、FLOPの46.72%を即座に落とすことができる。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Improving the Accuracy and Robustness of CNNs Using a Deep CCA Neural
Data Regularizer [2.026424957803652]
畳み込みニューラルネットワーク(CNN)がオブジェクト認識においてより正確になるにつれて、それらの表現は霊長類の視覚システムとよりよく似ている。
この問題に対処する以前の試みは、正規化法の制限により、精度が極端に向上した。
我々は,CNNのイメージ表現とサル視覚野との類似性を最適化するために,ディープ相関解析(DCCA)を用いた新しいCNN用ニューラルデータ正規化器を開発した。
論文 参考訳(メタデータ) (2022-09-06T15:40:39Z) - Lightweight Salient Object Detection in Optical Remote Sensing Images
via Feature Correlation [93.80710126516405]
本稿では,これらの問題に対処する軽量ORSI-SODソリューションであるCorrNetを提案する。
それぞれのコンポーネントのパラメータと計算を減らし、CorrNetは4.09Mのパラメータしか持たず、21.09GのFLOPで実行している。
2つの公開データセットの実験結果から、私たちの軽量なCorrNetは、26の最先端メソッドと比較して、競争力やパフォーマンスがさらに向上することが示された。
論文 参考訳(メタデータ) (2022-01-20T08:28:01Z) - Application of 2-D Convolutional Neural Networks for Damage Detection in
Steel Frame Structures [0.0]
本稿では,2次元畳み込みニューラルネットワーク(2次元CNN)を特徴抽出と分類段階の両方に応用する。
本手法では、深度ではなく、光ったCNNのネットワークを使用し、生の加速度信号を入力とする。
論文 参考訳(メタデータ) (2021-10-29T16:29:31Z) - Towards Real-time and Light-weight Line Segment Detection [15.834865037833875]
そこで本稿では,Mobile LSD という資源制約環境に対するリアルタイムかつ軽量な線分検出手法を提案する。
線形セグメント増分と幾何学的学習スキームのセグメンテーションという,新しいトレーニングスキームを提案する。
我々のモデル(M-LSD-tiny)は、GPUにおけるモデルサイズ2.5%、推論速度130.5%の競争性能を達成する。
論文 参考訳(メタデータ) (2021-06-01T02:28:08Z) - Deep learning for gravitational-wave data analysis: A resampling
white-box approach [62.997667081978825]
我々は、LIGO検出器からの単一干渉計データを用いて、畳み込みニューラルネットワーク(CNN)を用いて、コンパクトなバイナリコレッセンスにおける重力波(GW)信号を検出する。
CNNはノイズを検出するのに非常に正確だが、GW信号のリコールに十分な感度がないため、CNNはGWトリガの生成よりもノイズ低減に適している。
論文 参考訳(メタデータ) (2020-09-09T03:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。