論文の概要: Vanishing Point Detection with Direct and Transposed Fast Hough
Transform inside the neural network
- arxiv url: http://arxiv.org/abs/2002.01176v3
- Date: Tue, 7 Jul 2020 13:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:18:29.118844
- Title: Vanishing Point Detection with Direct and Transposed Fast Hough
Transform inside the neural network
- Title(参考訳): ニューラルネットワーク内における直接および転置高速ハフ変換によるベニシング点検出
- Authors: A. Sheshkus (4 and 6), A. Chirvonaya (2 and 6), D. Matveev (5 and 6),
D. Nikolaev (1 and 6), V.L. Arlazarov (3 and 4) ((1) Institute for
Information Transmission Problems (Kharkevich Institute) RAS, Moscow, Russia,
(2) National University of Science and Technology "MISIS", (3) Moscow
Institute for Physics and Technology, Moscow, Russia, (4) Institute for
Systems Analysis, Federal Research Center "Computer Science and Control" of
Russian Academy of Sciences, Moscow, Russia, (5) Lomonosov Moscow State
University, Moscow, Russia, (6) Smart Engines Service LLC, Moscow, Russia)
- Abstract要約: 本稿では,画像中の点検出を解消するニューラルネットワークアーキテクチャを提案する。
鍵となる要素は、標準アクティベーション関数を持つ畳み込み層ブロックによって分離された直接変換されたFast Hough変換を使用することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we suggest a new neural network architecture for vanishing
point detection in images. The key element is the use of the direct and
transposed Fast Hough Transforms separated by convolutional layer blocks with
standard activation functions. It allows us to get the answer in the
coordinates of the input image at the output of the network and thus to
calculate the coordinates of the vanishing point by simply selecting the
maximum. Besides, it was proved that calculation of the transposed Fast Hough
Transform can be performed using the direct one. The use of integral operators
enables the neural network to rely on global rectilinear features in the image,
and so it is ideal for detecting vanishing points. To demonstrate the
effectiveness of the proposed architecture, we use a set of images from a DVR
and show its superiority over existing methods. Note, in addition, that the
proposed neural network architecture essentially repeats the process of direct
and back projection used, for example, in computed tomography.
- Abstract(参考訳): 本稿では,画像中の点検出を解消するニューラルネットワークアーキテクチャを提案する。
鍵となる要素は、標準の活性化関数を持つ畳み込み層ブロックによって分離された直接および変換された高速ハフ変換である。
これにより、ネットワークの出力における入力画像の座標における解を得ることができ、したがって、最大値を選択するだけで消滅点の座標を計算することができる。
さらに,変換した高速ハフ変換の計算を直接的に行うことができることを示した。
積分演算子を用いることで、ニューラルネットワークは画像内のグローバルな直線的特徴を頼りにすることができるため、消滅点を検出するのが理想的である。
提案手法の有効性を実証するため,DVR画像の集合を用いて既存手法よりも優れていることを示す。
さらに、提案したニューラルネットワークアーキテクチャは、例えば計算トモグラフィーで使用される直接および逆投影の過程を本質的に繰り返すことに注意されたい。
関連論文リスト
- HoughToRadon Transform: New Neural Network Layer for Features
Improvement in Projection Space [83.88591755871734]
HoughToRadon Transformレイヤは、Hough Transformに組み込まれたニューラルネットワークの速度を改善するために設計された、新しいレイヤである。
オープンなMIDV-500データセットに関する我々の実験は、この新しいアプローチが時間を節約し、最先端の97.7%の精度を達成することを示している。
論文 参考訳(メタデータ) (2024-02-05T12:19:16Z) - Implicit Neural Representation of Tileable Material Textures [1.1203075575217447]
周期的なタイル状テクスチャを表現するために,正弦波ニューラルネットワークを探索する。
正弦波層の合成が周期$P$の整数周波数のみを生成することを証明した。
提案するニューラル暗黙表現はコンパクトであり,高分解能なテクスチャの効率的な再構築を可能にする。
論文 参考訳(メタデータ) (2024-02-03T16:44:25Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - SPDER: Semiperiodic Damping-Enabled Object Representation [7.4297019016687535]
位置埋め込みを自然に学習するために設計されたニューラルネットワークアーキテクチャを提案する。
提案アーキテクチャであるSPDERは,正弦波を線形関数で乗算した活性化関数を用いた単純なアーキテクチャである。
以上の結果から,SPDERはトレーニングを10倍に高速化し,画像表現の最先端よりも1500~50,000倍の損失に収束することが示唆された。
論文 参考訳(メタデータ) (2023-06-27T06:49:40Z) - Hamming Similarity and Graph Laplacians for Class Partitioning and
Adversarial Image Detection [2.960821510561423]
ニューラルネットワークの動作の理解と解釈を支援するために,ReLUアクティベーションパターン(ビットベクトルとして符号化)の可能性を検討する。
本稿では、Representational Dissimilarity Matrices(RDM)を用いて、ディープニューラルネットワークの埋め込み空間におけるデータのコヒーレンスについて検討する。
我々は,ビットベクトルが逆画像検出に役立ち,逆画像と非逆画像の分離において95%以上の精度を達成できることを実証した。
論文 参考訳(メタデータ) (2023-05-02T22:16:15Z) - AbHE: All Attention-based Homography Estimation [0.0]
本研究では,局所的な特徴を持つ畳み込みニューラルネットワークとグローバルな特徴を持つトランスフォーマーモジュールを組み合わせた,Swin Transformerに基づく強力なベースラインモデルを提案する。
ホモグラフィ回帰段階では、相関ボリュームのチャネルに注意層を導入し、いくつかの弱い相関特徴点を排除できる。
実験の結果,8自由度(DOF)ホモグラフィーでは,我々の手法が最先端の手法をオーバーパフォーマンスすることがわかった。
論文 参考訳(メタデータ) (2022-12-06T15:00:00Z) - Increasing the Accuracy of a Neural Network Using Frequency Selective
Mesh-to-Grid Resampling [4.211128681972148]
ニューラルネットワークの入力データの処理にFSMR(Keypoint frequency selective mesh-to-grid resampling)を提案する。
ネットワークアーキテクチャや分類タスクによって、トレーニング中のFSMRの適用は学習プロセスに役立ちます。
ResNet50とOxflower17データセットの分類精度は最大4.31ポイント向上できる。
論文 参考訳(メタデータ) (2022-09-28T21:34:47Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - Deep Neural Networks are Surprisingly Reversible: A Baseline for
Zero-Shot Inversion [90.65667807498086]
本稿では、内部表現のみを与えられたトレーニングモデルへの入力を復元するゼロショット直接モデル逆変換フレームワークを提案する。
ImageNetの最新の分類モデルでは、20層以上の表現から元の224x224px画像を近似的に復元できることを実証的に示す。
論文 参考訳(メタデータ) (2021-07-13T18:01:43Z) - Spatially-Adaptive Pixelwise Networks for Fast Image Translation [57.359250882770525]
高速かつ効率的な画像-画像変換を目的とした新しいジェネレータアーキテクチャを提案する。
私たちはピクセルワイズネットワークを使用します。つまり、各ピクセルは他のピクセルとは独立して処理されます。
私たちのモデルは最先端のベースラインよりも最大18倍高速です。
論文 参考訳(メタデータ) (2020-12-05T10:02:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。