論文の概要: Pixel Difference Networks for Efficient Edge Detection
- arxiv url: http://arxiv.org/abs/2108.07009v1
- Date: Mon, 16 Aug 2021 10:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:01:00.594141
- Title: Pixel Difference Networks for Efficient Edge Detection
- Title(参考訳): 効率的なエッジ検出のための画素差分ネットワーク
- Authors: Zhuo Su, Wenzhe Liu, Zitong Yu, Dewen Hu, Qing Liao, Qi Tian, Matti
Pietik\"ainen, Li Liu
- Abstract要約: 本稿では,Pixel Difference Network (PiDiNet) という軽量かつ効率的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueのデータセットに関する大規模な実験が、その効果を示すために提供されている。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
- 参考スコア(独自算出の注目度): 71.03915957914532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep Convolutional Neural Networks (CNNs) can achieve human-level
performance in edge detection with the rich and abstract edge representation
capacities. However, the high performance of CNN based edge detection is
achieved with a large pretrained CNN backbone, which is memory and energy
consuming. In addition, it is surprising that the previous wisdom from the
traditional edge detectors, such as Canny, Sobel, and LBP are rarely
investigated in the rapid-developing deep learning era. To address these
issues, we propose a simple, lightweight yet effective architecture named Pixel
Difference Network (PiDiNet) for efficient edge detection. Extensive
experiments on BSDS500, NYUD, and Multicue are provided to demonstrate its
effectiveness, and its high training and inference efficiency. Surprisingly,
when training from scratch with only the BSDS500 and VOC datasets, PiDiNet can
surpass the recorded result of human perception (0.807 vs. 0.803 in ODS
F-measure) on the BSDS500 dataset with 100 FPS and less than 1M parameters. A
faster version of PiDiNet with less than 0.1M parameters can still achieve
comparable performance among state of the arts with 200 FPS. Results on the
NYUD and Multicue datasets show similar observations. The codes are available
at https://github.com/zhuoinoulu/pidinet.
- Abstract(参考訳): 近年、深層畳み込みニューラルネットワーク(CNN)は、リッチで抽象的なエッジ表現能力を持つエッジ検出において、人間レベルの性能を実現することができる。
しかし、CNNベースのエッジ検出の高性能化は、メモリとエネルギー消費の大きいCNNバックボーンによって達成される。
また,従来のエッジ検出器であるcanny, sobel, lbpの知識が,急速な深層学習時代にはほとんど研究されていないことは驚きである。
これらの問題に対処するために,Pixel Difference Network (PiDiNet) という,シンプルで軽量で効果的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueの大規模な実験は、その効果と高いトレーニングと推論効率を示すために提供される。
意外なことに、BSDS500データセットとVOCデータセットのみをスクラッチからトレーニングすると、100 FPSで100Mパラメータ未満のBSDS500データセット上で、人間の知覚(ODS F測定では0.807対0.803)の記録結果を上回ることができる。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
NYUDとMulticueのデータセットの結果は、同様の観察結果を示している。
コードはhttps://github.com/zhuoinoulu/pidinetで入手できる。
関連論文リスト
- Msmsfnet: a multi-stream and multi-scale fusion net for edge detection [6.1932429715357165]
エッジ検出は、コンピュータビジョンにおける長年の問題である。
最近のディープラーニングベースのアルゴリズムは、公開データセットで最先端のパフォーマンスを実現する。
しかし、それらのパフォーマンスは、ImageNetデータセット上のバックボーンネットワークのトレーニング済みの重みに大きく依存している。
論文 参考訳(メタデータ) (2024-04-07T08:03:42Z) - Lightweight Pixel Difference Networks for Efficient Visual
Representation Learning [20.345417462198725]
emphPixel Different Convolution (PDC) と Binary PDC (Bi-PDC) という2種類の新しいコンボリューションを提案する。
エッジ検出やオブジェクト認識などの視覚的タスクに対して,高効率かつ高精度な表現を学習するために,emphPixel Different Networks (PiDiNet) とemph Binary PiDiNet (Bi-PiDiNet) という2つの軽量ディープネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-01T08:39:31Z) - Lightweight Real-time Semantic Segmentation Network with Efficient
Transformer and CNN [34.020978009518245]
LETNetと呼ばれる軽量なリアルタイムセマンティックセグメンテーションネットワークを提案する。
LETNetは、U字型のCNNとTransformerをカプセル埋め込みスタイルで効果的に組み合わせ、それぞれの欠陥を補う。
挑戦的なデータセットで実施された実験は、LETNetが精度と効率のバランスにおいて優れたパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-02-21T07:16:53Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Lost Vibration Test Data Recovery Using Convolutional Neural Network: A
Case Study [0.0]
本稿では,アラモサキャニオン橋のCNNアルゴリズムを実構造として提案する。
3つの異なるCNNモデルは、1つと2つの故障したセンサーを予測するものとされた。
畳み込み層を追加することによりモデルの精度が向上した。
論文 参考訳(メタデータ) (2022-04-11T23:24:03Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - Edge-Detect: Edge-centric Network Intrusion Detection using Deep Neural
Network [0.0]
エッジノードは、Internet-of-Thingsエンドポイント上の複数のサイバー攻撃を検出するために不可欠である。
DLM技術を用いてエッジノードに対するDoS攻撃を検知する,軽量で高速かつ高精度なEdge-Detectモデルを開発した。
論文 参考訳(メタデータ) (2021-02-03T04:24:34Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。