論文の概要: Tiny and Efficient Model for the Edge Detection Generalization
- arxiv url: http://arxiv.org/abs/2308.06468v1
- Date: Sat, 12 Aug 2023 05:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 17:01:21.773742
- Title: Tiny and Efficient Model for the Edge Detection Generalization
- Title(参考訳): エッジ検出一般化のためのTinyとEfficientモデル
- Authors: Xavier Soria, Yachuan Li, Mohammad Rouhani and Angel D. Sappa
- Abstract要約: 提案するTiny and Efficient Edge Detector(TEED)は,パラメータが5,8Kドルの軽量畳み込みニューラルネットワークである。
BIPEDデータセットのトレーニングには30分以上かかり、各エポックは5分未満である。
提案したモデルは訓練が容易で,予測されたエッジマップはクオリティが高く,初期のごく一部のエポック内に急速に収束する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Most high-level computer vision tasks rely on low-level image operations as
their initial processes. Operations such as edge detection, image enhancement,
and super-resolution, provide the foundations for higher level image analysis.
In this work we address the edge detection considering three main objectives:
simplicity, efficiency, and generalization since current state-of-the-art
(SOTA) edge detection models are increased in complexity for better accuracy.
To achieve this, we present Tiny and Efficient Edge Detector (TEED), a light
convolutional neural network with only $58K$ parameters, less than $0.2$% of
the state-of-the-art models. Training on the BIPED dataset takes $less than 30
minutes$, with each epoch requiring $less than 5 minutes$. Our proposed model
is easy to train and it quickly converges within very first few epochs, while
the predicted edge-maps are crisp and of high quality. Additionally, we propose
a new dataset to test the generalization of edge detection, which comprises
samples from popular images used in edge detection and image segmentation. The
source code is available in https://github.com/xavysp/TEED.
- Abstract(参考訳): ほとんどのハイレベルコンピュータビジョンタスクは、初期プロセスとして低レベルイメージ操作に依存している。
エッジ検出、画像強調、スーパーレゾリューションなどの操作は、より高いレベルの画像分析の基礎を提供する。
本研究は,現在最先端(SOTA)エッジ検出モデルが複雑化して精度が向上しているため,3つの主な目的 – 単純性,効率性,一般化 – を考慮したエッジ検出に対処する。
これを実現するために、Tiny and Efficient Edge Detector (TEED)を提案する。これは580K$パラメータしか持たない、最先端モデルの0.2$%未満の軽量畳み込みニューラルネットワークである。
BIPEDデータセットのトレーニングには30分以上かかり、各エポックは5分未満である。
提案したモデルは訓練が容易で,予測されたエッジマップはクオリティが高く,初期のごく一部のエポック内に急速に収束する。
さらに,エッジ検出と画像セグメンテーションに使用される人気画像のサンプルを含む,エッジ検出の一般化をテストする新しいデータセットを提案する。
ソースコードはhttps://github.com/xavysp/teedで入手できる。
関連論文リスト
- ESOD: Efficient Small Object Detection on High-Resolution Images [36.80623357577051]
小さなオブジェクトは通常、わずかに分散され、局所的にクラスタ化される。
画像の非対象背景領域において、大量の特徴抽出計算を無駄にする。
本稿では,検出器のバックボーンを再利用して,特徴レベルのオブジェクト探索とパッチスライシングを行う方法を提案する。
論文 参考訳(メタデータ) (2024-07-23T12:21:23Z) - Learning to utilize image second-order derivative information for crisp edge detection [13.848361661516595]
エッジ検出はコンピュータビジョンの基本課題である。
最近のトップパフォーマンスエッジ検出手法は、厚くノイズの多いエッジラインを生成する傾向にある。
本稿では,モデルが真のエッジピクセルを正確に検出するのに役立つ2階微分型マルチスケールコンテキスト拡張モジュール(SDMCM)を提案する。
また、不均衡分布問題を軽減するために、ハイブリッド焦点損失関数(HFL)を構築した。
最後に、エッジ検出のためのSDMCMとBRMに基づくLUS-NetというU字型ネットワークを提案する。
論文 参考訳(メタデータ) (2024-06-09T13:25:02Z) - Msmsfnet: a multi-stream and multi-scale fusion net for edge detection [6.1932429715357165]
エッジ検出は、コンピュータビジョンにおける長年の問題である。
最近のディープラーニングベースのアルゴリズムは、公開データセットで最先端のパフォーマンスを実現する。
しかし、それらのパフォーマンスは、ImageNetデータセット上のバックボーンネットワークのトレーニング済みの重みに大きく依存している。
論文 参考訳(メタデータ) (2024-04-07T08:03:42Z) - Raising the Bar of AI-generated Image Detection with CLIP [50.345365081177555]
本研究の目的は、AI生成画像の普遍的検出のための事前学習された視覚言語モデル(VLM)の可能性を探ることである。
我々は,CLIP機能に基づく軽量な検出戦略を開発し,その性能を様々な難易度シナリオで検証する。
論文 参考訳(メタデータ) (2023-11-30T21:11:20Z) - Robustifying Deep Vision Models Through Shape Sensitization [19.118696557797957]
そこで本研究では,ネットワークの全体像を学習するためのインセンティブを明示的に付与する,シンプルで軽量な対向拡張手法を提案する。
我々の拡張は、ランダムに決定された混合比を用いて、シャッフルパッチで、ある画像から別の画像へのエッジマップを重畳する。
この拡張により,データセットやニューラルアーキテクチャの分類精度とロバストネスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-14T11:17:46Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Sample and Computation Redistribution for Efficient Face Detection [137.19388513633484]
トレーニングデータサンプリングと計算分布戦略は、効率的で正確な顔検出の鍵です。
scrfdf34は、最高の競合製品であるTinaFaceを3.86%(ハードセットでのAP)で上回り、GPU上でVGA解像度画像でmph3$times$より高速です。
論文 参考訳(メタデータ) (2021-05-10T23:51:14Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。