論文の概要: Fully Convolutional Line Parsing
- arxiv url: http://arxiv.org/abs/2104.11207v2
- Date: Fri, 23 Apr 2021 03:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 11:34:15.662051
- Title: Fully Convolutional Line Parsing
- Title(参考訳): 完全畳み込み線解析
- Authors: Xili Dai, Xiaojun Yuan, Haigang Gong, Yi Ma
- Abstract要約: 画像から線分を検出する一段階のF-Clip(Fully Convolutional Line Parsing Network)を提案する。
F-Clipは、各行の中央位置、長さ、角度で予測することで、ラインセグメントをエンドツーエンドで検出する。
広範な実験を行い,本手法が効率と精度のトレードオフを大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 25.80938920093857
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present a one-stage Fully Convolutional Line Parsing network (F-Clip) that
detects line segments from images. The proposed network is very simple and
flexible with variations that gracefully trade off between speed and accuracy
for different applications. F-Clip detects line segments in an end-to-end
fashion by predicting them with each line's center position, length, and angle.
Based on empirical observation of the distribution of line angles in real image
datasets, we further customize the design of convolution kernels of our fully
convolutional network to effectively exploit such statistical priors. We
conduct extensive experiments and show that our method achieves a significantly
better trade-off between efficiency and accuracy, resulting in a real-time line
detector at up to 73 FPS on a single GPU. Such inference speed makes our method
readily applicable to real-time tasks without compromising any accuracy of
previous methods. Moreover, when equipped with a performance-improving backbone
network, F-Clip is able to significantly outperform all state-of-the-art line
detectors on accuracy at a similar or even higher frame rate. Source code
https://github.com/Delay-Xili/F-Clip.
- Abstract(参考訳): 画像から線分を検出する一段階のF-Clip(Fully Convolutional Line Parsing Network)を提案する。
提案するネットワークは非常にシンプルで柔軟性があり、異なるアプリケーションの速度と精度を優雅にトレードオフするバリエーションがある。
F-Clipは、各行の中央位置、長さ、角度で予測することで、ラインセグメントをエンドツーエンドで検出する。
実画像データセットにおける線分角分布の実証的観察に基づき, 畳み込みネットワークの畳み込みカーネルの設計をさらにカスタマイズし, このような統計的事前化を効果的に活用する。
提案手法は,1つのGPU上で最大73FPSのリアルタイムライン検出器を実現することにより,効率と精度のトレードオフを著しく向上することを示す。
このような推論速度は,従来の手法の精度を損なうことなく,リアルタイムタスクに容易に適用できる。
さらに、性能改善バックボーンネットワークを備えた場合、F-Clipは、同じまたはそれ以上のフレームレートで精度で全ての最先端ライン検出器を著しく上回ることができる。
ソースコード https://github.com/Delay-Xili/F-Clip.com
関連論文リスト
- TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - Detecting Line Segments in Motion-blurred Images with Events [38.39698414942873]
既存のラインセグメント検出方法は、動きのぼやけが発生したときにラインセグメントを検出する際に、厳しい性能劣化に直面している。
本稿では,画像やイベントの相補的な情報を利用して,動きのぼやけた線分を頑健に検出することを提案する。
提案手法は, FE-Wireframeで事前学習し, FE-Blurframeで微調整したモデルを用いて, 平均構造平均精度(msAP)を63.3%向上させる。
論文 参考訳(メタデータ) (2022-11-14T14:00:03Z) - Real-Time Scene Text Detection with Differentiable Binarization and
Adaptive Scale Fusion [62.269219152425556]
セグメンテーションに基づくシーンテキスト検出手法はシーンテキスト検出分野において大きな注目を集めている。
本稿では,二項化処理をセグメンテーションネットワークに統合する分散二項化(DB)モジュールを提案する。
アダプティブ・スケール・フュージョン (ASF) モジュールは, 異なるスケールの特徴を適応的に融合させることにより, スケールのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-02-21T15:30:14Z) - AuxAdapt: Stable and Efficient Test-Time Adaptation for Temporally
Consistent Video Semantic Segmentation [81.87943324048756]
ビデオセグメンテーションでは、フレーム間で時間的に一貫した結果を生成することは、フレームワイドの精度を達成するのと同じくらい重要である。
既存の方法は、時間的整合性を達成するために、テストデータによる光フローの正則化や微調整に依存している。
本稿では、ほとんどのニューラルネットワークモデルの時間的一貫性を改善するために、効率的で直感的で教師なしのオンライン適応手法であるAuxAdaptを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:07:41Z) - SOLD2: Self-supervised Occlusion-aware Line Description and Detection [95.8719432775724]
単一深層ネットワークにおける回線セグメントの最初の共同検出と記述について紹介します。
我々の手法は注釈付き行ラベルを必要としないため、任意のデータセットに一般化することができる。
複数のマルチビューデータセットにおいて,従来の行検出と記述方法に対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-04-07T19:27:17Z) - ULSD: Unified Line Segment Detection across Pinhole, Fisheye, and
Spherical Cameras [17.943949895764938]
ラインセグメント検出は、コンピュータビジョンとロボット工学におけるハイレベルなタスクに不可欠である。
現在、ほとんどの最新技術(SOTA)法は、歪みのないピンホール画像の直線部分の検出に特化している。
本稿では,歪み画像と歪画像の両方に対して,統一ラインセグメント検出(ULSD)を目標とする。
論文 参考訳(メタデータ) (2020-11-06T03:30:17Z) - Holistically-Attracted Wireframe Parsing [123.58263152571952]
本稿では,入力画像中のベクトル化ワイヤフレームを1つのフォワードパスで検出する高速で類似的な解析手法を提案する。
提案手法は, (i) ラインセグメントとジャンクション提案生成, (ii) ラインセグメントとジャンクションマッチング, (iii) ラインセグメントとジャンクション検証の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-03-03T17:43:57Z) - Directional Deep Embedding and Appearance Learning for Fast Video Object
Segmentation [11.10636117512819]
本稿では,オンラインファインチューニングを不要とした指向性深層埋め込みとYouTube外見学習(DEmbed)手法を提案する。
本手法は,オンラインファインチューニングを使わずに最先端のVOS性能を実現する。
論文 参考訳(メタデータ) (2020-02-17T01:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。