論文の概要: TrashDet: Iterative Neural Architecture Search for Efficient Waste Detection
- arxiv url: http://arxiv.org/abs/2512.20746v1
- Date: Tue, 23 Dec 2025 20:00:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.589557
- Title: TrashDet: Iterative Neural Architecture Search for Efficient Waste Detection
- Title(参考訳): TrashDet: 効率的な廃棄物検出のための反復型ニューラルネットワーク探索
- Authors: Tony Tran, Bin Hu,
- Abstract要約: 本稿では,厳密なTinyML制約下でのTACOデータセットのゴミ検出について述べる。
エッジとIoTデバイスをターゲットにした反復的なハードウェア対応のニューラルアーキテクチャ検索フレームワークを使用している。
このフレームワークは、TrushDetsと呼ばれるデプロイ可能な検出器のファミリーを生成する。
- 参考スコア(独自算出の注目度): 3.6340387363934865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses trash detection on the TACO dataset under strict TinyML constraints using an iterative hardware-aware neural architecture search framework targeting edge and IoT devices. The proposed method constructs a Once-for-All-style ResDets supernet and performs iterative evolutionary search that alternates between backbone and neck/head optimization, supported by a population passthrough mechanism and an accuracy predictor to reduce search cost and improve stability. This framework yields a family of deployment-ready detectors, termed TrashDets. On a five-class TACO subset (paper, plastic, bottle, can, cigarette), the strongest variant, TrashDet-l, achieves 19.5 mAP50 with 30.5M parameters, improving accuracy by up to 3.6 mAP50 over prior detectors while using substantially fewer parameters. The TrashDet family spans 1.2M to 30.5M parameters with mAP50 values between 11.4 and 19.5, providing scalable detector options for diverse TinyML deployment budgets on resource-constrained hardware. On the MAX78002 microcontroller with the TrashNet dataset, two specialized variants, TrashDet-ResNet and TrashDet-MBNet, jointly dominate the ai87-fpndetector baseline, with TrashDet-ResNet achieving 7525~$μ$J energy per inference at 26.7 ms latency and 37.45 FPS, and TrashDet-MBNet improving mAP50 by 10.2%; together they reduce energy consumption by up to 88%, latency by up to 78%, and average power by up to 53% compared to existing TinyML detectors.
- Abstract(参考訳): 本稿では,エッジとIoTデバイスを対象としたハードウェア対応ニューラルネットワーク探索フレームワークを用いて,厳密なTinyML制約下でのTACOデータセットのゴミ検出に対処する。
提案手法は, 集団パススルー機構と精度予測器によって支持され, 探索コストを低減し, 安定性を向上させるために, バックボーンとネック/ヘッド最適化を交互に行う反復的進化探索を行う。
このフレームワークは、TrushDetsと呼ばれるデプロイ可能な検出器のファミリーを生成する。
5種類のTACOサブセット(紙、プラスチック、ボトル、缶、タバコ)では、最も強力な派生型であるTrashDet-lが30.5Mパラメータを持つ19.5 mAP50を達成し、より少ないパラメータを使用しながら、以前の検出器よりも3.6 mAP50の精度を向上させる。
TrashDetファミリーは11.4から19.5のmAP50値を持つ1.2Mから30.5Mパラメータにまたがっており、リソース制約のあるハードウェア上でさまざまなTinyMLデプロイメント予算に対してスケーラブルな検出オプションを提供する。
TrashNetデータセットを持つMAX78002マイクロコントローラでは、TrashDet-ResNetとTrashDet-MBNetの2つの特別な派生型がai87-fpndetectorベースラインを共同で支配し、TrashDet-ResNetは26.7msの遅延と37.45FPSで7525~$μ$Jのエネルギーを消費し、TrashDet-MBNetはmAP50を10.2%改善した。
関連論文リスト
- ELASTIC: Efficient Once For All Iterative Search for Object Detection on Microcontrollers [5.162131184069973]
ELASTICは、モジュール間で周期的に最適化を交互に行う、ハードウェア対応の統一NASフレームワークである。
進化的探索における集団パススルー機構は、探索段階間の高品質な候補を保持し、より高速な収束をもたらす。
マイクロコントローラにデプロイすると、ELASTIC由来のモデルはAnalog DevicesのMCUSSDベースラインを上回り、エネルギーを最大71.6%削減し、レイテンシを最大2.4倍下げ、mAPを最大6.99ポイント改善した。
論文 参考訳(メタデータ) (2025-03-27T21:35:02Z) - SenseExpo: Efficient Autonomous Exploration with Prediction Information from Lightweight Neural Networks [3.6404856388891793]
SenseExpoは、軽量な予測ネットワークに基づく効率的な自律探査フレームワークである。
我々の最小モデルでは、U-netやLaMaよりもKTHデータセットの性能が向上している。
論文 参考訳(メタデータ) (2025-03-20T10:07:51Z) - HGO-YOLO: Advancing Anomaly Behavior Detection with Hierarchical Features and Lightweight Optimized Detection [0.0]
HGO-YOLOはGhostHGNetv2と最適化されたパラメータ共有ヘッド(OptiConvDetect)を組み合わせた軽量検出器である。
3つの異常データセット上では、HGO-YOLOは87.4%のmAP@0.5と81.1%のリコールを、たった4.3 GFLOPsと4.6MBのYOLOv8nを+3.0% mAP、-51.7% FLOPs、1.7*の速度で1つのCPU上で56 FPSで達成している。
論文 参考訳(メタデータ) (2025-03-10T14:29:12Z) - DAPONet: A Dual Attention and Partially Overparameterized Network for Real-Time Road Damage Detection [4.185368042845483]
ストリートビュー画像データ(SVRDD)を用いたリアルタイム道路損傷検出のためのDAPONetを提案する。
DAPONetは、SVRDDデータセット上で70.1%のmAP50を達成し、YOLOv10nを10.4%上回り、パラメータを1.6M、FLOPを1.7Gに減らし、それぞれ41%、80%削減した。
MS COCO 2017 valデータセットでは、DAPONetはmAP50-95が33.4%、効率の良いDet-D1より0.8%高く、パラメータとFLOPの両方が74%減少している。
論文 参考訳(メタデータ) (2024-09-03T04:53:32Z) - xCOMET-lite: Bridging the Gap Between Efficiency and Quality in Learned MT Evaluation Metrics [69.14652127492438]
xCOMETのような最先端の機械翻訳評価指標は、人間の判断と高い相関性を得るが、大きなエンコーダに依存している。
我々は, 蒸留, 定量化, プルーニング技術を用いて, 効率的なxCOMET代替品を作成する。
量子化により,xCOMETは3倍の圧縮が可能であり,品質劣化は生じない。
論文 参考訳(メタデータ) (2024-06-20T17:58:34Z) - Global Context Vision Transformers [78.5346173956383]
我々は,コンピュータビジョンのパラメータと計算利用を向上する新しいアーキテクチャであるGC ViT(Global context vision transformer)を提案する。
本稿では,ViTにおける帰納バイアスの欠如に対処し,アーキテクチャにおける可溶性逆残差ブロックを改良して活用することを提案する。
提案したGC ViTは,画像分類,オブジェクト検出,セマンティックセマンティックセグメンテーションタスクにまたがる最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-06-20T18:42:44Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Pre-defined Sparsity for Low-Complexity Convolutional Neural Networks [9.409651543514615]
この研究は、フィルタ内で定期的に繰り返されるサポートセットを持つ、事前に定義されたスパース2Dカーネルを持つ畳み込みレイヤを導入している。
周期的なスパースカーネルの効率的な保存のため、パラメータの節約はエネルギー効率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-01-29T07:10:56Z) - Filter Sketch for Network Pruning [184.41079868885265]
事前学習したネットワーク重み(フィルタ)の情報保存による新しいネットワークプルーニング手法を提案する。
われわれのアプローチは、FilterSketchと呼ばれ、事前訓練された重みの2次情報を符号化する。
CIFAR-10の実験では、FilterSketchはFLOPの63.3%を削減し、ネットワークパラメータの59.9%を無視できる精度で削減している。
論文 参考訳(メタデータ) (2020-01-23T13:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。