論文の概要: CSL-YOLO: A New Lightweight Object Detection System for Edge Computing
- arxiv url: http://arxiv.org/abs/2107.04829v1
- Date: Sat, 10 Jul 2021 12:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 08:08:55.933145
- Title: CSL-YOLO: A New Lightweight Object Detection System for Edge Computing
- Title(参考訳): CSL-YOLO:エッジコンピューティングのための新しい軽量物体検出システム
- Authors: Yu-Ming Zhang, Chun-Chieh Lee, Jun-Wei Hsieh, Kuo-Chin Fan
- Abstract要約: 本稿では,より安価な操作から冗長な特徴を生成するために,新しい軽量な畳み込み方式であるクロスステージ軽量モジュールを提案する。
MS-COCOで行われた実験により、提案されたCSLモジュールはConvolution-3x3の適合能力を近似できることが示された。
最後に、このモジュールを用いて軽量検出器CSL-YOLOを構築し、Tiny-YOLOv4よりも43%のFLOPと52%のパラメータで検出性能を向上させる。
- 参考スコア(独自算出の注目度): 6.637211161633018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of lightweight object detectors is essential due to the
limited computation resources. To reduce the computation cost, how to generate
redundant features plays a significant role. This paper proposes a new
lightweight Convolution method Cross-Stage Lightweight (CSL) Module, to
generate redundant features from cheap operations. In the intermediate
expansion stage, we replaced Pointwise Convolution with Depthwise Convolution
to produce candidate features. The proposed CSL-Module can reduce the
computation cost significantly. Experiments conducted at MS-COCO show that the
proposed CSL-Module can approximate the fitting ability of Convolution-3x3.
Finally, we use the module to construct a lightweight detector CSL-YOLO,
achieving better detection performance with only 43% FLOPs and 52% parameters
than Tiny-YOLOv4.
- Abstract(参考訳): 軽量な物体検出器の開発は計算資源が限られているため不可欠である。
計算コストを削減するために、冗長な特徴の生成方法が重要な役割を果たす。
本稿では,安価な操作から冗長な特徴を生成するために,新しい軽量な畳み込み方式であるクロスステージ軽量モジュールを提案する。
中間展開段階では, ポイントワイズ畳み込みを深さ方向畳み込みに置き換え, 候補特徴量を生成する。
提案するcslモジュールは計算コストを大幅に削減できる。
MS-COCOで行われた実験により、提案されたCSLモジュールはConvolution-3x3の適合能力を近似できることが示された。
最後に、このモジュールを用いて軽量検出器CSL-YOLOを構築し、Tiny-YOLOv4よりも43%のFLOPと52%のパラメータで検出性能を向上させる。
関連論文リスト
- Lighten CARAFE: Dynamic Lightweight Upsampling with Guided Reassemble Kernels [18.729177307412645]
我々はDLU(Dynamic Lightweight Upsampling)と呼ばれる軽量なアップサンプリング動作を提案する。
いくつかのメインストリームのビジョンタスクの実験では、私たちのDLUはオリジナルのCARAFEに匹敵する、さらに優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-29T15:35:14Z) - OPAL: Outlier-Preserved Microscaling Quantization Accelerator for Generative Large Language Models [0.562479170374811]
本稿では, OPAL と呼ばれるエネルギー効率の高い LLM アクセラレータを生成タスクに適用するハードウェア・ソフトウェア共同設計手法を提案する。
OPALは、電力効率を最大化するためにシフトと減算のみを必要とするソフトマックス演算にlog2ベースの近似を使用する。
その結果、エネルギー効率を 1.62.2x に改善し、面積を 2.43.1x に減らし、精度を損なうことができる。
論文 参考訳(メタデータ) (2024-09-06T02:33:20Z) - CGRA4ML: A Framework to Implement Modern Neural Networks for Scientific Edge Computing [9.386122875273204]
CGRA4MLは、ニューラルネットワークモデルの複雑さと極端なパフォーマンス要件の間のギャップを埋めるために設計された、オープンソースのモジュラーフレームワークである。
HLS4MLとは異なり、CGRA4MLはSystemVerilog RTLを生成しており、ASICやFPGAの設計フローをターゲットにするのに適している。
CGRA4MLのPython API、SystemVerilogハードウェア、Tclツールフロー、Cランタイムの最小限のモジュラーインフラストラクチャは、統合と実験を容易にする。
論文 参考訳(メタデータ) (2024-08-28T06:24:13Z) - LR-Net: A Lightweight and Robust Network for Infrared Small Target Detection [2.6617665093172445]
我々は、革新的な軽量で堅牢なネットワーク(LR-Net)を提案する。
LR-Netは複雑な構造を放棄し、検出精度と資源消費のバランスをとる。
第3位は「ICPR 2024リソース制限赤外小ターゲット検出チャレンジトラック2:軽量赤外小ターゲット検出」である。
論文 参考訳(メタデータ) (2024-08-05T18:57:33Z) - SliM-LLM: Salience-Driven Mixed-Precision Quantization for Large Language Models [67.67135738642547]
後学習量子化(PTQ)は、大規模言語モデル(LLM)において研究される強力な圧縮手法である。
既存のPTQ法は、特に4ビット幅以下では、精度と効率の点で理想的ではない。
本稿では,LSM,すなわちSliM-LLMに対するSalience-Driven Mixed-Precision Quantizationスキームを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:21:48Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - AffineQuant: Affine Transformation Quantization for Large Language Models [58.45460102764]
ポストトレーニング量子化(PTQ)は、その圧縮効率とトレーニングの文脈における費用対効果により、かなりの関心を集めている。
既存の大規模言語モデル(LLM)のPTQ手法は、事前量子化重みと後量子化重みの間の変換のスケーリングに最適化範囲を制限している。
本稿では,PTQ(AffineQuant)における等価アフィン変換を用いた直接最適化を提唱する。
論文 参考訳(メタデータ) (2024-03-19T08:40:21Z) - ReLU$^2$ Wins: Discovering Efficient Activation Functions for Sparse
LLMs [91.31204876440765]
本稿では、ニューロンの出力の等級と調整された等級しきい値によってニューロンの活性化を定義する一般的な方法を提案する。
スパース計算における最も効率的なアクティベーション関数を見つけるために,本手法を提案する。
我々は、ReLU、SwiGLU、ReGLU、ReLU$2$といった異なるアクティベーション機能を利用したLCMの徹底的な実験を行う。
論文 参考訳(メタデータ) (2024-02-06T08:45:51Z) - A Nearly Optimal and Low-Switching Algorithm for Reinforcement Learning
with General Function Approximation [66.26739783789387]
我々は、強化学習のための新しいアルゴリズム、MQL-UCBを用いたモノトニックQ-Learningを提案する。
MQL-UCBは、$tildeO(dsqrtHK)$の最小限の後悔を実現する。
本研究は,非線形関数近似を用いたサンプル効率およびデプロイメント効率のよいQ-ラーニングの設計に重点を置いている。
論文 参考訳(メタデータ) (2023-11-26T08:31:57Z) - Lightweight Full-Convolutional Siamese Tracker [4.903759699116597]
本稿では,LightFCと呼ばれる軽量完全畳み込み式シームズトラッカーを提案する。
LightFCは、新しい効率的な相互相関モジュールと、新しい効率的なre-centerヘッドを採用している。
実験の結果、LightFCは性能、パラメータ、FlopsとFPSの最適なバランスを実現することがわかった。
論文 参考訳(メタデータ) (2023-10-09T04:07:35Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。