論文の概要: NasHD: Efficient ViT Architecture Performance Ranking using
Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2209.11356v1
- Date: Fri, 23 Sep 2022 00:41:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 13:25:30.416241
- Title: NasHD: Efficient ViT Architecture Performance Ranking using
Hyperdimensional Computing
- Title(参考訳): nashd: 超次元コンピューティングを用いたvitアーキテクチャのパフォーマンスランキング
- Authors: Dongning Ma and Pengfei Zhao and Xun Jiao
- Abstract要約: 我々は,超次元計算に基づく教師付き学習モデルであるNasHDを紹介し,アーキテクチャと構成から性能をランク付けする。
8つのアプリケーションのVIMER-UFOベンチマークデータセットでは、NasHD Recordが約1分で100K近い視覚変換器モデルのパフォーマンスをランク付けできる。
- 参考スコア(独自算出の注目度): 4.262540056187187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Architecture Search (NAS) is an automated architecture engineering
method for deep learning design automation, which serves as an alternative to
the manual and error-prone process of model development, selection, evaluation
and performance estimation. However, one major obstacle of NAS is the extremely
demanding computation resource requirements and time-consuming iterations
particularly when the dataset scales. In this paper, targeting at the emerging
vision transformer (ViT), we present NasHD, a hyperdimensional computing based
supervised learning model to rank the performance given the architectures and
configurations. Different from other learning based methods, NasHD is faster
thanks to the high parallel processing of HDC architecture. We also evaluated
two HDC encoding schemes: Gram-based and Record-based of NasHD on their
performance and efficiency. On the VIMER-UFO benchmark dataset of 8
applications from a diverse range of domains, NasHD Record can rank the
performance of nearly 100K vision transformer models with about 1 minute while
still achieving comparable results with sophisticated models.
- Abstract(参考訳): Neural Architecture Search (NAS)は、ディープラーニング設計自動化のための自動化アーキテクチャ工学手法であり、モデル開発、選択、評価、性能評価のマニュアルおよびエラー発生過程の代替として機能する。
しかしながら、NASの大きな障害のひとつは、特にデータセットがスケールする場合に、非常に要求の多い計算リソース要件と時間を要するイテレーションである。
本稿では、新しい視覚変換器(ViT)をターゲットとして、アーキテクチャや構成から得られる性能をランク付けする超次元コンピューティングに基づく教師付き学習モデルNasHDを提案する。
他の学習ベースの方法とは異なり、NasHDはHDCアーキテクチャの高並列処理のおかげで高速である。
また,NosHDのグラムベースとレコードベースという2つのHDC符号化方式について,その性能と効率について検討した。
さまざまなドメインから8つのアプリケーションを対象としたVIMER-UFOベンチマークデータセットでは、NasHD Recordが100K近いビジョントランスフォーマーモデルのパフォーマンスを約1分でランク付けし、高度なモデルで同等の結果が得られる。
関連論文リスト
- DONNAv2 -- Lightweight Neural Architecture Search for Vision tasks [6.628409795264665]
計算効率の良いニューラルアーキテクチャ蒸留 - DONNAv2 のための次世代ニューラルアーキテクチャ設計について述べる。
DONNAv2は、より大きなデータセットに対して、DONNAの計算コストを10倍削減する。
NASサーチスペースの品質を向上させるため、DONNAv2はブロック知識蒸留フィルタを利用して推論コストの高いブロックを除去する。
論文 参考訳(メタデータ) (2023-09-26T04:48:50Z) - Search-time Efficient Device Constraints-Aware Neural Architecture
Search [6.527454079441765]
コンピュータビジョンや自然言語処理といったディープラーニング技術は、計算コストが高く、メモリ集約的です。
ニューラルアーキテクチャサーチ(NAS)によるデバイス制約に最適化されたタスク固有のディープラーニングアーキテクチャの構築を自動化する。
本稿では,エッジデバイス制約を組み込んだ高速ニューラルネットワークアーキテクチャ探索の原理的手法であるDCA-NASを提案する。
論文 参考訳(メタデータ) (2023-07-10T09:52:28Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。