論文の概要: Amped: Adaptive Multi-stage Non-edge Pruning for Edge Detection
- arxiv url: http://arxiv.org/abs/2603.27661v1
- Date: Sun, 29 Mar 2026 12:26:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-31 23:18:45.058163
- Title: Amped: Adaptive Multi-stage Non-edge Pruning for Edge Detection
- Title(参考訳): Amped:エッジ検出のための適応型多段非エッジプルーニング
- Authors: Yuhan Gao, Xinqing Li, Xin He, Bing Li, Xinzhong Zhu, Ming-Ming Cheng, Yun Liu,
- Abstract要約: エッジ検出のための適応型多段非エッジプルーニングフレームワーク(Amped)を提案する。
Ampedは高信頼の非エッジトークンを識別し、可能な限り早く削除し、計算を大幅に削減する。
既存のエッジ検出ネットワークの構造的複雑さを軽減するため,Streamline Edge Detector(SED)と呼ばれる,シンプルながら高性能なTransformerベースのモデルを導入する。
- 参考スコア(独自算出の注目度): 53.59823657644554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge detection is a fundamental image analysis task that underpins numerous high-level vision applications. Recent advances in Transformer architectures have significantly improved edge quality by capturing long-range dependencies, but this often comes with computational overhead. Achieving higher pixel-level accuracy requires increased input resolution, further escalating computational cost and limiting practical deployment. Building on the strong representational capacity of recent Transformer-based edge detectors, we propose an Adaptive Multi-stage non-edge Pruning framework for Edge Detection(Amped). Amped identifies high-confidence non-edge tokens and removes them as early as possible to substantially reduce computation, thus retaining high accuracy while cutting GFLOPs and accelerating inference with minimal performance loss. Moreover, to mitigate the structural complexity of existing edge detection networks and facilitate their integration into real-world systems, we introduce a simple yet high-performance Transformer-based model, termed Streamline Edge Detector(SED). Applied to both existing detectors and our SED, the proposed pruning strategy provides a favorable balance between accuracy and efficiency-reducing GFLOPs by up to 40% with only a 0.4% drop in ODS F-measure. In addition, despite its simplicity, SED achieves a state-of-the-art ODS F-measure of 86.5%. The code will be released.
- Abstract(参考訳): エッジ検出は、多くのハイレベルな視覚アプリケーションを支える基本的な画像解析タスクである。
トランスフォーマーアーキテクチャの最近の進歩は、長距離依存関係をキャプチャすることで、エッジ品質を著しく向上させたが、これはしばしば計算オーバーヘッドを伴う。
ピクセルレベルの精度の向上には、入力解像度の向上、計算コストの増大、実用的な展開の制限が必要である。
近年のトランスフォーマーを用いたエッジ検出器の強力な表現能力に基づいて,エッジ検出(Amped)のための適応多段非エッジプルーニングフレームワークを提案する。
Ampedは高信頼の非エッジトークンを識別し、できるだけ早く取り除き、計算を大幅に削減し、GFLOPをカットしながら高い精度を維持し、性能損失を最小限に抑える。
さらに,既存のエッジ検出ネットワークの構造的複雑さを緩和し,実世界のシステムへの統合を容易にするために,SED(Streamline Edge Detector)と呼ばれるシンプルだが高性能なTransformerベースのモデルを導入する。
既存の検出器とSEDの両方に適用し、提案プルーニング戦略は、ODS F測定の0.4%の低下で、精度と効率を最大40%向上させるGFLOPのバランスが良好である。
加えて、単純さにもかかわらず、SEDは最先端のODS F尺度の86.5%を達成している。
コードはリリースされます。
関連論文リスト
- Towards Efficient Image Deblurring for Edge Deployment [1.2234742322758418]
画像の劣化は、モバイル画像信号処理パイプラインにおいて重要な段階であり、細かな構造やテクスチャを復元する能力は、エッジデバイスのリアルタイムな制約とバランスをとらなければならない。
本稿では, 感性誘導ブロック置換, シュロゲート蒸留, デバイスプロファイリングにより駆動されるトレーニング不要な多目的探索により, 既存モデルを再構成するハードウェア対応適応フレームワークを提案する。
36ブロックのNAFNetベースラインの適用により、最適化された変種は、最近のトランスフォーマーベースのSOTAと比較して最大55%のGMAC削減を実現し、競争の正確性を維持している。最も重要なのは、オンデバイスデプロイメントがベースラインよりも1.25倍のレイテンシ改善をもたらすことだ。
論文 参考訳(メタデータ) (2026-01-16T10:09:13Z) - High-Frequency Semantics and Geometric Priors for End-to-End Detection Transformers in Challenging UAV Imagery [6.902247657565531]
本稿では,空中シーンに適したリアルタイム検出変換器であるHEDS-DETRを紹介する。
まず,高周波数拡張セマンティックスネットワーク(HFESNet)のバックボーンを提案する。
第2に、高分解能特徴を効率的に融合させることにより、情報損失に対処する。
第三に、2つの相乗的成分を用いてデコーダの安定性と位置決め精度を向上させる。
論文 参考訳(メタデータ) (2025-07-01T14:56:56Z) - Efficient Detection Framework Adaptation for Edge Computing: A Plug-and-play Neural Network Toolbox Enabling Edge Deployment [59.61554561979589]
エッジコンピューティングは、時間に敏感なシナリオでディープラーニングベースのオブジェクト検出をデプロイするための重要なパラダイムとして登場した。
既存のエッジ検出手法では、軽量モデルによる検出精度のバランスの難しさ、適応性の制限、現実の検証の不十分といった課題に直面している。
本稿では,汎用的なプラグイン・アンド・プレイコンポーネントを用いてエッジ環境にオブジェクト検出モデルを適用するエッジ検出ツールボックス(ED-TOOLBOX)を提案する。
論文 参考訳(メタデータ) (2024-12-24T07:28:10Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。