論文の概要: Deep Hough Transform for Semantic Line Detection
- arxiv url: http://arxiv.org/abs/2003.04676v4
- Date: Sat, 1 May 2021 17:46:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:22:43.742353
- Title: Deep Hough Transform for Semantic Line Detection
- Title(参考訳): 意味線検出のためのディープハフ変換
- Authors: Kai Zhao, Qi Han, Chang-Bin Zhang, Jun Xu, and Ming-Ming Cheng
- Abstract要約: 自然の場面で意味のある線構造、つまり意味的な線を検知する基本的なタスクに焦点をあてる。
従来の手法は線の性質を無視し、準最適性能をもたらす。
行検出のためのワンショットエンドツーエンド学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 70.28969017874587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on a fundamental task of detecting meaningful line structures,
a.k.a. semantic line, in natural scenes. Many previous methods regard this
problem as a special case of object detection and adjust existing object
detectors for semantic line detection. However, these methods neglect the
inherent characteristics of lines, leading to sub-optimal performance. Lines
enjoy much simpler geometric property than complex objects and thus can be
compactly parameterized by a few arguments. To better exploit the property of
lines, in this paper, we incorporate the classical Hough transform technique
into deeply learned representations and propose a one-shot end-to-end learning
framework for line detection. By parameterizing lines with slopes and biases,
we perform Hough transform to translate deep representations into the
parametric domain, in which we perform line detection. Specifically, we
aggregate features along candidate lines on the feature map plane and then
assign the aggregated features to corresponding locations in the parametric
domain. Consequently, the problem of detecting semantic lines in the spatial
domain is transformed into spotting individual points in the parametric domain,
making the post-processing steps, i.e. non-maximal suppression, more efficient.
Furthermore, our method makes it easy to extract contextual line features eg
features along lines close to a specific line, that are critical for accurate
line detection. In addition to the proposed method, we design an evaluation
metric to assess the quality of line detection and construct a large scale
dataset for the line detection task. Experimental results on our proposed
dataset and another public dataset demonstrate the advantages of our method
over previous state-of-the-art alternatives.
- Abstract(参考訳): 自然場面において意味のある線構造、すなわち意味線を検出する基本的なタスクに焦点を当てる。
従来の多くの手法では、この問題をオブジェクト検出の特別な場合とみなし、既存のオブジェクト検出をセマンティックライン検出のために調整している。
しかし、これらの手法は線の性質を無視し、準最適性能をもたらす。
直線は複素対象よりもはるかに単純な幾何学的性質を持ち、従っていくつかの引数によってコンパクトにパラメータ化できる。
本稿では,線の性質をよりよく活用するために,古典的ハフ変換手法を深く学習された表現に取り入れ,一対一で線検出を行う学習フレームワークを提案する。
傾斜や偏りのある線をパラメータ化することで、深部表現をパラメトリック領域に変換するハフ変換を行い、線の検出を行う。
具体的には、フィーチャーマッププレーンの候補ラインに沿って機能を集約し、パラメトリックドメイン内の対応する場所に集約した機能を割り当てます。
これにより、空間領域における意味線を検出する問題は、パラメトリック領域内の個々の点を検知し、処理後のステップ、すなわち非最大抑制をより効率的にする。
さらに,本手法は,行の正確な検出に欠かせない,特定の行に近い線に沿って,文脈的特徴,例えば特徴を抽出しやすくする。
提案手法に加えて,線検出の質を評価するための評価指標を設計し,線検出タスクのための大規模データセットを構築する。
提案するデータセットおよび他の公開データセットにおける実験結果は、従来の最先端の代替案よりも優れた方法を示している。
関連論文リスト
- LRANet: Towards Accurate and Efficient Scene Text Detection with
Low-Rank Approximation Network [63.554061288184165]
低ランク近似に基づく新しいパラメータ化テキスト形状法を提案する。
異なるテキストの輪郭間の形状相関を探索することにより, 形状表現における一貫性, コンパクト性, 単純性, 頑健性を実現する。
我々はLRANetという名前の正確で効率的な任意の形状のテキスト検出器を実装した。
論文 参考訳(メタデータ) (2023-06-27T02:03:46Z) - Linear Object Detection in Document Images using Multiple Object
Tracking [58.720142291102135]
線形オブジェクトは文書構造に関する実質的な情報を伝達する。
多くのアプローチはベクトル表現を復元できるが、1994年に導入された1つのクローズドソース技術のみである。
複数オブジェクト追跡を用いた文書画像中の線形オブジェクトの正確なインスタンスセグメンテーションのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:22:03Z) - IDLS: Inverse Depth Line based Visual-Inertial SLAM [9.38589798999922]
Inverse Depth Line SLAM (IDLS) を提案する。
IDLSは、複数の知覚的整合性データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-04-23T20:53:05Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - LOF: Structure-Aware Line Tracking based on Optical Flow [8.856222186351445]
光フロー(LOF)に基づく構造認識ライントラッキングアルゴリズムを提案する。
提案するLOFは, ライントラッキング精度, 堅牢性, 効率において, 最先端性能より優れる。
論文 参考訳(メタデータ) (2021-09-17T11:09:11Z) - Unsupervised learning of text line segmentation by differentiating
coarse patterns [0.0]
距離が粗いテキスト行パターンに類似するコンパクトユークリッド空間に文書イメージパッチを埋め込む教師なしのディープラーニング手法を提案する。
テキスト行のセグメンテーションは、埋め込み特徴ベクトルを使って標準技術を使って容易に実装できる。
本手法は,テキスト行分割データセットのいくつかの変種に対して定性的かつ定量的に評価し,その効果を実証する。
論文 参考訳(メタデータ) (2021-05-19T21:21:30Z) - SOLD2: Self-supervised Occlusion-aware Line Description and Detection [95.8719432775724]
単一深層ネットワークにおける回線セグメントの最初の共同検出と記述について紹介します。
我々の手法は注釈付き行ラベルを必要としないため、任意のデータセットに一般化することができる。
複数のマルチビューデータセットにおいて,従来の行検出と記述方法に対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-04-07T19:27:17Z) - Pretrained equivariant features improve unsupervised landmark discovery [69.02115180674885]
我々は、この課題を克服する2段階の教師なしアプローチを、強力なピクセルベースの特徴を初めて学習することによって定式化する。
本手法は,いくつかの難解なランドマーク検出データセットにおいて最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-04-07T05:42:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。