論文の概要: SOLD2: Self-supervised Occlusion-aware Line Description and Detection
- arxiv url: http://arxiv.org/abs/2104.03362v1
- Date: Wed, 7 Apr 2021 19:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:09:53.317767
- Title: SOLD2: Self-supervised Occlusion-aware Line Description and Detection
- Title(参考訳): SOLD2: 自己管理オクルージョン対応ライン記述と検出
- Authors: R\'emi Pautrat, Juan-Ting Lin, Viktor Larsson, Martin R. Oswald, Marc
Pollefeys
- Abstract要約: 単一深層ネットワークにおける回線セグメントの最初の共同検出と記述について紹介します。
我々の手法は注釈付き行ラベルを必要としないため、任意のデータセットに一般化することができる。
複数のマルチビューデータセットにおいて,従来の行検出と記述方法に対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 95.8719432775724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared to feature point detection and description, detecting and matching
line segments offer additional challenges. Yet, line features represent a
promising complement to points for multi-view tasks. Lines are indeed
well-defined by the image gradient, frequently appear even in poorly textured
areas and offer robust structural cues. We thus hereby introduce the first
joint detection and description of line segments in a single deep network.
Thanks to a self-supervised training, our method does not require any annotated
line labels and can therefore generalize to any dataset. Our detector offers
repeatable and accurate localization of line segments in images, departing from
the wireframe parsing approach. Leveraging the recent progresses in descriptor
learning, our proposed line descriptor is highly discriminative, while
remaining robust to viewpoint changes and occlusions. We evaluate our approach
against previous line detection and description methods on several multi-view
datasets created with homographic warps as well as real-world viewpoint
changes. Our full pipeline yields higher repeatability, localization accuracy
and matching metrics, and thus represents a first step to bridge the gap with
learned feature points methods. Code and trained weights are available at
https://github.com/cvg/SOLD2.
- Abstract(参考訳): 特徴点の検出と記述と比較すると、ラインセグメントの検出とマッチングにはさらなる課題がある。
しかし、行機能はマルチビュータスクのポイントを補完する有望な機能である。
線は画像勾配によって明確に定義されており、テクスチャの悪い地域でもしばしば現れ、頑丈な構造的手がかりを提供する。
そこで本研究では,1つのディープネットワークにおいて,ラインセグメントの最初の共同検出と記述を導入する。
自己教師型トレーニングのおかげで、アノテーション付き行ラベルを必要としないため、任意のデータセットに一般化できる。
この検出器は、ワイヤフレーム解析アプローチから外れた画像中の線分を再現可能かつ正確な位置決めを提供する。
近年のディスクリプタ学習の進歩を生かして,提案した行記述子は非常に差別的であり,視点の変化や閉塞に頑健なままである。
我々は,ホモグラフィックワープと実世界の視点変化を用いた複数のマルチビューデータセットに対して,従来の線検出と記述手法に対するアプローチを評価する。
私たちの全パイプラインは、高い再現性、ローカライゼーションの正確さ、メトリクスのマッチングを実現し、学習した機能ポイントメソッドでギャップを埋めるための第一歩を示しています。
コードはhttps://github.com/cvg/SOLD2.comで入手できる。
関連論文リスト
- SegVG: Transferring Object Bounding Box to Segmentation for Visual Grounding [56.079013202051094]
ボックスレベルのアノテーションを信号として転送する新しい手法であるSegVGを提案する。
このアプローチでは,ボックスレベルのレグレッションとピクセルレベルのセグメンテーションの両方の信号としてアノテーションを反復的に利用することができる。
論文 参考訳(メタデータ) (2024-07-03T15:30:45Z) - IDLS: Inverse Depth Line based Visual-Inertial SLAM [9.38589798999922]
Inverse Depth Line SLAM (IDLS) を提案する。
IDLSは、複数の知覚的整合性データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-04-23T20:53:05Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - SuperLine3D: Self-supervised Line Segmentation and Description for LiDAR
Point Cloud [35.16632339908634]
本稿では,LiDAR 点クラウドにおける3次元線に対する最初の学習的特徴分割と記述モデルを提案する。
モデルでは任意のスケールの摂動の下で線を抽出し,共有EdgeConvエンコーダ層を用いて2つのセグメンテーションとディスクリプタヘッドを共同でトレーニングする。
実験により, ラインベース登録法は最先端のポイントベース手法と高い競争力を持つことが示された。
論文 参考訳(メタデータ) (2022-08-03T09:06:14Z) - Sparse Optical Flow-Based Line Feature Tracking [7.166068174681434]
本稿では, カメラポーズ推定問題に対する新しいスパース光フロー (SOF) を用いたライン特徴追跡手法を提案する。
この手法は点ベースSOFアルゴリズムにインスパイアされ、隣接する2つの画像が輝度不変量を満たすという観測に基づいて開発された。
いくつかの公開ベンチマークデータセットで実験したところ、我々の手法は速度よりも明らかな優位性を持つ高い競争精度が得られることがわかった。
論文 参考訳(メタデータ) (2022-04-07T10:00:02Z) - ABCNet v2: Adaptive Bezier-Curve Network for Real-time End-to-end Text
Spotting [108.93803186429017]
エンドツーエンドのテキストスポッティングは、統一されたフレームワークで検出と認識を統合することを目指している。
本稿では、Adaptive Bezier Curve Network v2 (ABCNet v2) を提示することで、エンドツーエンドテキストスポッティングに取り組む。
1) 任意の形状のテキストをパラメータ化されたベジアー曲線で適応的に適合させ, セグメンテーション法と比較すると, 構造的な出力だけでなく, 制御可能な表現も提供できる。
様々なバイリンガル(英語と中国語)ベンチマークデータセットで実施された総合的な実験は、ABCNet v2が現状を達成することを実証している。
論文 参考訳(メタデータ) (2021-05-08T07:46:55Z) - ELSD: Efficient Line Segment Detector and Descriptor [9.64386089593887]
本稿では,ラインセグメントを同時に検出し,画像中のデクリプタを抽出する,ELSD(Efficient Line Segment Detector and Descriptor)を提案する。
ELSDはSLAMや画像マッチングなどの高レベルのタスクに不可欠なライン機能を提供します。
実験では,提案したELSDは,Wireframeデータセットと YorkUrbanデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-29T08:53:03Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z) - Deep Hough Transform for Semantic Line Detection [70.28969017874587]
自然の場面で意味のある線構造、つまり意味的な線を検知する基本的なタスクに焦点をあてる。
従来の手法は線の性質を無視し、準最適性能をもたらす。
行検出のためのワンショットエンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-10T13:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。