論文の概要: HoughToRadon Transform: New Neural Network Layer for Features
Improvement in Projection Space
- arxiv url: http://arxiv.org/abs/2402.02946v1
- Date: Mon, 5 Feb 2024 12:19:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 16:21:13.434824
- Title: HoughToRadon Transform: New Neural Network Layer for Features
Improvement in Projection Space
- Title(参考訳): HoughToRadon変換:投影空間における特徴改善のための新しいニューラルネットワーク層
- Authors: Alexandra Zhabitskaya, Alexander Sheshkus, and Vladimir L. Arlazarov
- Abstract要約: HoughToRadon Transformレイヤは、Hough Transformに組み込まれたニューラルネットワークの速度を改善するために設計された、新しいレイヤである。
オープンなMIDV-500データセットに関する我々の実験は、この新しいアプローチが時間を節約し、最先端の97.7%の精度を達成することを示している。
- 参考スコア(独自算出の注目度): 83.88591755871734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce HoughToRadon Transform layer, a novel layer
designed to improve the speed of neural networks incorporated with Hough
Transform to solve semantic image segmentation problems. By placing it after a
Hough Transform layer, "inner" convolutions receive modified feature maps with
new beneficial properties, such as a smaller area of processed images and
parameter space linearity by angle and shift. These properties were not
presented in Hough Transform alone. Furthermore, HoughToRadon Transform layer
allows us to adjust the size of intermediate feature maps using two new
parameters, thus allowing us to balance the speed and quality of the resulting
neural network. Our experiments on the open MIDV-500 dataset show that this new
approach leads to time savings in document segmentation tasks and achieves
state-of-the-art 97.7% accuracy, outperforming HoughEncoder with larger
computational complexity.
- Abstract(参考訳): 本稿では,Hough ToRadon 変換層を導入し,Hough Transform を組み込んだニューラルネットワークの高速化を図り,セマンティックな画像分割問題の解法を提案する。
ハフ変換層の後に置くことで、"inner"畳み込みは、より小さな処理された画像領域や、角度とシフトによるパラメータ空間の線形性といった、新しい有益な特性を持つ修正された特徴マップを受け取る。
これらの性質はハフ変換だけでは示されなかった。
さらに、HoughToRadon変換層は、2つの新しいパラメータを使って中間特徴写像のサイズを調整でき、その結果のニューラルネットワークの速度と品質のバランスをとることができる。
オープンなMIDV-500データセットに対する実験により、この新しい手法は文書セグメンテーションタスクの時間節約につながり、最先端の97.7%の精度を実現し、より複雑なHoughEncoderを上回った。
関連論文リスト
- Sub-token ViT Embedding via Stochastic Resonance Transformers [51.12001699637727]
Vision Transformer (ViT) アーキテクチャは、画像を高次元のベクトル化トークンの集合として表現し、それぞれが長方形の非重複パッチに対応する。
我々は「確率共鳴」にインスパイアされた無訓練法を提案する。
結果として得られるSRT(Stochastic Resonance Transformer)は、元の表現のリッチな意味情報を保持するが、空間的トークン化の粗い効果を軽減し、より微細な空間領域に基盤を置いている。
論文 参考訳(メタデータ) (2023-10-06T01:53:27Z) - Multichannel Orthogonal Transform-Based Perceptron Layers for Efficient ResNets [2.829818195105779]
我々は、CNNの3ドル3ドルのConv2Dの代替として、変換ベースのニューラルネットワーク層を提案する。
提案した層は、離散コサイン変換(DCT)、アダマール変換(HT)、生物直交ブロックウェーブレット変換(BWT)などの変換に基づいて実装することができる。
論文 参考訳(メタデータ) (2023-03-13T01:07:32Z) - Reparameterization through Spatial Gradient Scaling [69.27487006953852]
リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T17:57:33Z) - Feature-level augmentation to improve robustness of deep neural networks
to affine transformations [22.323625542814284]
最近の研究では、畳み込みニューラルネットワークは小さな画像変換に対してうまく一般化しないことが明らかになっている。
ニューラルアーキテクチャの中間層にデータ拡張を導入することを提案する。
このような変換に対処するニューラルネットワークの能力を開発する。
論文 参考訳(メタデータ) (2022-02-10T17:14:58Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z) - Progressive Encoding for Neural Optimization [92.55503085245304]
メッシュ転送におけるppe層の能力と,そのアドバンテージを,現代の表面マッピング技術と比較した。
最も重要な点は, パラメタライズフリーな手法であり, 様々な対象形状表現に適用可能であることである。
論文 参考訳(メタデータ) (2021-04-19T08:22:55Z) - Convolutional Hough Matching Networks [39.524998833064956]
畳み込みマッチングにおけるハフ変換の視点を導入し、畳み込みハフマッチング(CHM)と呼ばれる効果的な幾何マッチングアルゴリズムを提案する。
半等方性高次元カーネルを持つ学習可能な神経層にキャストし、少数の解釈可能なパラメータとの非剛性マッチングを学習した。
本手法は,意味的視覚対応のための標準ベンチマークの新たな技術を確立し,クラス内変動に対する強固さを証明した。
論文 参考訳(メタデータ) (2021-03-31T06:17:03Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - Vanishing Point Detection with Direct and Transposed Fast Hough
Transform inside the neural network [0.0]
本稿では,画像中の点検出を解消するニューラルネットワークアーキテクチャを提案する。
鍵となる要素は、標準アクティベーション関数を持つ畳み込み層ブロックによって分離された直接変換されたFast Hough変換を使用することである。
論文 参考訳(メタデータ) (2020-02-04T09:10:45Z) - The problems with using STNs to align CNN feature maps [0.0]
空間変換器ネットワーク(STN)は、変換された画像とそのオリジナルの特徴マップを整列する能力を持たないと我々は主張する。
我々は、分類とローカライゼーションネットワークの間でパラメータを共有することによって、より深い層におけるより複雑な特徴を活用することを提唱する。
論文 参考訳(メタデータ) (2020-01-14T12:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。