論文の概要: FasteNet: A Fast Railway Fastener Detector
- arxiv url: http://arxiv.org/abs/2012.07968v1
- Date: Mon, 14 Dec 2020 22:04:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 17:46:08.513496
- Title: FasteNet: A Fast Railway Fastener Detector
- Title(参考訳): fastenet:高速鉄道用ファスナー検出器
- Authors: Jun Jet Tai, Mauro S. Innocente, Owais Mehmood
- Abstract要約: 新しい高速鉄道ファスナー検出器が導入された。
この完全な畳み込みネットワークはFasteNetと呼ばれ、バウンディングボックスの概念を先導し、予測されたサリエンシマップ上で直接検出を行う。
FastenetはNvidia GTX 1080上で110 FPSで動作でき、1600$times$512の入力を1枚あたり平均14ファスナーで受信できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, a novel high-speed railway fastener detector is introduced.
This fully convolutional network, dubbed FasteNet, foregoes the notion of
bounding boxes and performs detection directly on a predicted saliency map.
Fastenet uses transposed convolutions and skip connections, the effective
receptive field of the network is 1.5$\times$ larger than the average size of a
fastener, enabling the network to make predictions with high confidence,
without sacrificing output resolution. In addition, due to the saliency map
approach, the network is able to vote for the presence of a fastener up to 30
times per fastener, boosting prediction accuracy. Fastenet is capable of
running at 110 FPS on an Nvidia GTX 1080, while taking in inputs of
1600$\times$512 with an average of 14 fasteners per image. Our source is open
here: https://github.com/jjshoots/DL\_FasteNet.git
- Abstract(参考訳): 本研究では,新しい高速鉄道ファスナー検出器を提案する。
この完全な畳み込みネットワークはFasteNetと呼ばれ、バウンディングボックスの概念を先導し、予測されたサリエンシマップ上で直接検出を行う。
Fastenetは、変換された畳み込みと接続をスキップし、ネットワークの効果的な受容フィールドは、ファスナーの平均サイズよりも1.5$\times$大きいので、出力解像度を犠牲にすることなく、高い信頼性で予測できる。
さらに、サリエンシマップのアプローチにより、ネットワークはファスナー1本あたり30回までのファスナーの存在を投票し、予測精度を高めることができる。
FastenetはNvidia GTX 1080上で110 FPSで動作でき、1600$\times$512の入力を1枚あたり平均14ファスナーで受信できる。
https://github.com/jjshoots/dl\_fastenet.git
関連論文リスト
- Run, Don't Walk: Chasing Higher FLOPS for Faster Neural Networks [15.519170283930276]
冗長計算とメモリアクセスを同時に削減し,空間的特徴をより効率的に抽出する新しい部分畳み込み(PConv)を提案する。
当社のPConv上に構築された新しいニューラルネットワークファミリーであるFasterNetも提案しています。
当社の大きなFasterNet-Lは、新興のSwin-Bと同等の8,3.5%の精度で、GPU上での推論スループットは36%高い。
論文 参考訳(メタデータ) (2023-03-07T06:05:30Z) - GhostNetV2: Enhance Cheap Operation with Long-Range Attention [59.65543143580889]
ハードウェアフレンドリーなアテンション機構(DFCアテンション)を提案し,モバイルアプリケーション用の新しいGhostNetV2アーキテクチャを提案する。
提案したDFCアテンションは、ハードウェア上で高速に動作できるだけでなく、長距離画素間の依存を捉えることができる完全接続層に基づいて構築されている。
さらに,従来のGhostNetのボトルネックを再考し,DFCに着目した安価な操作による機能拡張を提案する。
論文 参考訳(メタデータ) (2022-11-23T12:16:59Z) - ThresholdNet: Pruning Tool for Densely Connected Convolutional Networks [2.267411144256508]
メモリのしきい値電圧の原理に言及した新しいタイプのプルーニングツール「しきい値」を導入する。
この手法は、異なる深さのブロックを異なる方法で接続し、メモリ使用量を減らすために使用される。
実験によると、HarDNetはDenseNetの2倍の速さで、ThresholdNetはHarDNetよりも10%速く、エラー率は10%低い。
論文 参考訳(メタデータ) (2021-08-28T08:48:31Z) - Pixel Difference Networks for Efficient Edge Detection [71.03915957914532]
本稿では,Pixel Difference Network (PiDiNet) という軽量かつ効率的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueのデータセットに関する大規模な実験が、その効果を示すために提供されている。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2021-08-16T10:42:59Z) - HANT: Hardware-Aware Network Transformation [82.54824188745887]
ハードウェア・アウェア・ネットワーク・トランスフォーメーション(HANT)を提案する。
HANTは、ニューラルネットワーク検索のようなアプローチを使用して、非効率な操作をより効率的な代替手段に置き換える。
EfficientNetファミリの高速化に関する我々の結果は、ImageNetデータセットのトップ1の精度で最大3.6倍、0.4%の低下でHANTがそれらを加速できることを示している。
論文 参考訳(メタデータ) (2021-07-12T18:46:34Z) - GnetDet: Object Detection Optimized on a 224mW CNN Accelerator Chip at
the Speed of 106FPS [10.644839299403612]
CPU負荷を最小限に抑え、CNNアクセラレータチップ上のオブジェクト検出モデルを最適化する。
実験結果から, 224mW チップ上で動作する GnetDet モデルは106FPS の速度を精度良く達成できることがわかった。
論文 参考訳(メタデータ) (2021-02-19T06:16:42Z) - RepVGG: Making VGG-style ConvNets Great Again [116.0327370719692]
本稿では,3x3畳み込みとReLUのスタックのみからなるVGGのような推論時間体を持つ,畳み込みニューラルネットワークの単純かつ強力なアーキテクチャを提案する。
RepVGGは、私たちの知識を最大限に活用するために、プレーンモデルにとって初めてである80%以上のトップ-1の精度に達します。
論文 参考訳(メタデータ) (2021-01-11T04:46:11Z) - Greedy Optimization Provably Wins the Lottery: Logarithmic Number of
Winning Tickets is Enough [19.19644194006565]
精度低下の許容範囲が指定されたニューラルネットワークのプルーク数を示す。
提案手法は,プルーンドネットワークと元のネットワークとの差が指数関数的に速い速度で減衰することを保証している。
本研究では,ResNet や MobilenetV2/V3 など,様々なネットワークアーキテクチャを ImageNet 上で刈り取る手法を実証的に改良する。
論文 参考訳(メタデータ) (2020-10-29T22:06:31Z) - SpeedNet: Learning the Speediness in Videos [54.798526633714474]
SpeedNetは、ビデオが正常に再生されているか、あるいは再生されているかを検出するために訓練された、新しいディープネットワークである。
本稿では,この単一バイナリ分類ネットワークを用いて物体の速度を任意に検出する方法を示す。
論文 参考訳(メタデータ) (2020-04-13T18:00:27Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。