論文の概要: DONNAv2 -- Lightweight Neural Architecture Search for Vision tasks
- arxiv url: http://arxiv.org/abs/2309.14670v1
- Date: Tue, 26 Sep 2023 04:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 15:06:13.081783
- Title: DONNAv2 -- Lightweight Neural Architecture Search for Vision tasks
- Title(参考訳): DONNAv2 -- ビジョンタスクのための軽量ニューラルネットワーク検索
- Authors: Sweta Priyadarshi, Tianyu Jiang, Hsin-Pai Cheng, Sendil Krishna,
Viswanath Ganapathy, Chirag Patel
- Abstract要約: 計算効率の良いニューラルアーキテクチャ蒸留 - DONNAv2 のための次世代ニューラルアーキテクチャ設計について述べる。
DONNAv2は、より大きなデータセットに対して、DONNAの計算コストを10倍削減する。
NASサーチスペースの品質を向上させるため、DONNAv2はブロック知識蒸留フィルタを利用して推論コストの高いブロックを除去する。
- 参考スコア(独自算出の注目度): 6.628409795264665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing demand for vision applications and deployment across edge
devices, the development of hardware-friendly architectures that maintain
performance during device deployment becomes crucial. Neural architecture
search (NAS) techniques explore various approaches to discover efficient
architectures for diverse learning tasks in a computationally efficient manner.
In this paper, we present the next-generation neural architecture design for
computationally efficient neural architecture distillation - DONNAv2 .
Conventional NAS algorithms rely on a computationally extensive stage where an
accuracy predictor is learned to estimate model performance within search
space. This building of accuracy predictors helps them predict the performance
of models that are not being finetuned. Here, we have developed an elegant
approach to eliminate building the accuracy predictor and extend DONNA to a
computationally efficient setting. The loss metric of individual blocks forming
the network serves as the surrogate performance measure for the sampled models
in the NAS search stage. To validate the performance of DONNAv2 we have
performed extensive experiments involving a range of diverse vision tasks
including classification, object detection, image denoising, super-resolution,
and panoptic perception network (YOLOP). The hardware-in-the-loop experiments
were carried out using the Samsung Galaxy S10 mobile platform. Notably, DONNAv2
reduces the computational cost of DONNA by 10x for the larger datasets.
Furthermore, to improve the quality of NAS search space, DONNAv2 leverages a
block knowledge distillation filter to remove blocks with high inference costs.
- Abstract(参考訳): エッジデバイスにまたがるビジョンアプリケーションやデプロイメントの需要が高まっているため、デバイスデプロイメント時のパフォーマンスを維持するハードウェアフレンドリなアーキテクチャの開発が不可欠である。
neural architecture search (nas)技術は、様々な学習タスクの効率的なアーキテクチャを計算効率良く発見するための様々なアプローチを探索する。
本稿では,計算効率の良いニューラルアーキテクチャ蒸留システムDONNAv2の次世代ニューラルアーキテクチャ設計について述べる。
従来のNASアルゴリズムは、精度予測器を学習し、探索空間内のモデル性能を推定する計算的な段階に依存している。
この精度予測器の構築は、微調整されていないモデルの性能を予測するのに役立つ。
そこで我々は,精度予測器の構築を排除し,DONNAを計算効率の良い設定に拡張するエレガントな手法を開発した。
ネットワークを構成する個々のブロックの損失メトリックは、nas探索段階におけるサンプルモデルのサロゲートパフォーマンス指標として機能する。
DONNAv2の性能を検証するために,分類,物体検出,画像のデノナイズ,超高分解能,汎視知覚ネットワーク(YOLOP)など,多様な視覚タスクの幅広い実験を行った。
ハードウェア・イン・ザ・ループの実験はSamsung Galaxy S10モバイルプラットフォームを用いて行われた。
特に、DONNAv2は、より大きなデータセットに対して、DONNAの計算コストを10倍削減する。
さらに、NAS検索空間の品質を向上させるため、DONNAv2はブロック知識蒸留フィルタを活用し、推論コストの高いブロックを除去する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - POMONAG: Pareto-Optimal Many-Objective Neural Architecture Generator [4.09225917049674]
Transferable NASが登場し、データセット依存からタスク依存への探索プロセスを一般化した。
本稿では多目的拡散プロセスを通じて拡散NAGを拡張するPOMONAGを紹介する。
結果は、NAS201とMobileNetV3の2つの検索スペースで検証され、15の画像分類データセットで評価された。
論文 参考訳(メタデータ) (2024-09-30T16:05:29Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - Search-time Efficient Device Constraints-Aware Neural Architecture
Search [6.527454079441765]
コンピュータビジョンや自然言語処理といったディープラーニング技術は、計算コストが高く、メモリ集約的です。
ニューラルアーキテクチャサーチ(NAS)によるデバイス制約に最適化されたタスク固有のディープラーニングアーキテクチャの構築を自動化する。
本稿では,エッジデバイス制約を組み込んだ高速ニューラルネットワークアーキテクチャ探索の原理的手法であるDCA-NASを提案する。
論文 参考訳(メタデータ) (2023-07-10T09:52:28Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - Neural Architecture Optimization with Graph VAE [21.126140965779534]
連続空間におけるネットワークアーキテクチャを最適化するための効率的なNAS手法を提案する。
フレームワークは、エンコーダ、パフォーマンス予測器、複雑性予測器、デコーダの4つのコンポーネントを共同で学習する。
論文 参考訳(メタデータ) (2020-06-18T07:05:48Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。