論文の概要: Deep Hough-Transform Line Priors
- arxiv url: http://arxiv.org/abs/2007.09493v1
- Date: Sat, 18 Jul 2020 18:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:51:39.185703
- Title: Deep Hough-Transform Line Priors
- Title(参考訳): ディープハフ変換線前処理
- Authors: Yancong Lin, Silvia L. Pintea, and Jan C. van Gemert
- Abstract要約: 現在のディープラーニングメソッドは、すべての事前知識を廃止し、大規模な手動のアノテートデータセット上でディープネットワークをトレーニングすることで、事前知識を置き換える。
ここでは,従来の知識に基づく先行情報に基づいて,深いネットワークを用いて特徴を学習することにより,ラベル付きデータへの依存性を低減する。
行先がデータから学習される必要がなくなったため、事前知識を追加することでデータ効率が向上することを示す。
- 参考スコア(独自算出の注目度): 21.494912918296194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical work on line segment detection is knowledge-based; it uses
carefully designed geometric priors using either image gradients, pixel
groupings, or Hough transform variants. Instead, current deep learning methods
do away with all prior knowledge and replace priors by training deep networks
on large manually annotated datasets. Here, we reduce the dependency on labeled
data by building on the classic knowledge-based priors while using deep
networks to learn features. We add line priors through a trainable Hough
transform block into a deep network. Hough transform provides the prior
knowledge about global line parameterizations, while the convolutional layers
can learn the local gradient-like line features. On the Wireframe
(ShanghaiTech) and York Urban datasets we show that adding prior knowledge
improves data efficiency as line priors no longer need to be learned from data.
Keywords: Hough transform; global line prior, line segment detection.
- Abstract(参考訳): ラインセグメント検出に関する古典的な研究は知識に基づいており、画像勾配、ピクセルグループ化、あるいはハフ変換の変種を用いて慎重に設計された幾何学的事前情報を使用する。
代わりに、現在のディープラーニングメソッドは、すべての事前知識を廃止し、大規模な手動のアノテートデータセット上でディープネットワークをトレーニングすることで、事前を置き換える。
ここでは,従来の知識に基づく先行情報に基づいて,深いネットワークを用いて特徴を学習することにより,ラベル付きデータへの依存性を低減する。
トレーニング可能なHough変換ブロックを通じて行先をディープネットワークに追加します。
hough変換はグローバルラインのパラメータ化に関する事前知識を提供し、畳み込み層は局所勾配のようなライン特徴を学ぶことができる。
Wireframe (ShanghaiTech) と York Urban のデータセットでは、事前知識を追加することで、データから学習する必要がなくなるため、データの効率が向上することを示した。
キーワード: Hough transform, Global line prior, line segment detection。
関連論文リスト
- Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - Pre-Train Your Loss: Easy Bayesian Transfer Learning with Informative
Priors [59.93972277761501]
我々は,教師付きあるいは自己指導型アプローチにより,ソースタスクから高い情報的後部を学習できることを実証した。
このシンプルなモジュラーアプローチは、様々な下流の分類とセグメンテーションタスクにおいて、大幅なパフォーマンス向上と、よりデータ効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2022-05-20T16:19:30Z) - Deep vanishing point detection: Geometric priors make dataset variations
vanish [24.348651041697114]
ディープラーニングは画像の消滅点検出を改善した。
しかし、ディープネットワークは高価なハードウェアでトレーニングされた高価なアノテートデータセットを必要とする。
ここでは、これらの問題に対して、事前知識で深い消滅点検出ネットワークを注入することで対処する。
論文 参考訳(メタデータ) (2022-03-16T12:34:27Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - CADDA: Class-wise Automatic Differentiable Data Augmentation for EEG
Signals [92.60744099084157]
本研究では、勾配に基づく学習に適した微分可能データ拡張を提案する。
本研究は,臨床関連睡眠ステージ分類課題におけるアプローチの意義を示す。
論文 参考訳(メタデータ) (2021-06-25T15:28:48Z) - Quantifying Information Leakage from Gradients [8.175697239083474]
トレーニングデータの代わりにディープニューラルネットワークの勾配を共有することで、コラボレーティブラーニングにおけるデータのプライバシが向上する可能性がある。
しかし実際には、勾配はプライベート潜在属性とオリジナルデータの両方を明らかにすることができる。
トレーニングデータ上で計算された勾配から、元の情報漏洩と潜時情報漏洩の両方を定量化するために、数学的メトリクスが必要である。
論文 参考訳(メタデータ) (2021-05-28T15:47:44Z) - FuCiTNet: Improving the generalization of deep learning networks by the
fusion of learned class-inherent transformations [1.8013893443965217]
非常に小さなデータセットがDeep Neural Networks(DNN)のオーバーフィッティングを生成することは広く知られている。
この研究は、非常に小さなデータセット上でのDNNの一般化を改善するために、前述した手法と独立しているが相補的な新しいアプローチを示す。
論文 参考訳(メタデータ) (2020-05-17T12:04:20Z) - Fully Convolutional Neural Networks for Raw Eye Tracking Data
Segmentation, Generation, and Reconstruction [15.279153483132179]
眼球追跡データのセマンティックセグメンテーションに完全畳み込みニューラルネットワークを用いる。
また、これらのネットワークを再構成に使用し、変分自動エンコーダと組み合わせて眼球運動データを生成する。
論文 参考訳(メタデータ) (2020-02-17T06:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。