論文の概要: Sim-is-More: Randomizing HW-NAS with Synthetic Devices
- arxiv url: http://arxiv.org/abs/2504.00663v1
- Date: Tue, 01 Apr 2025 11:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:20:22.217893
- Title: Sim-is-More: Randomizing HW-NAS with Synthetic Devices
- Title(参考訳): Sim-is-More: 合成デバイスによるHW-NASのランダム化
- Authors: Francesco Capuano, Gabriele Tiboni, Niccolò Cavagnero, Giuseppe Averta,
- Abstract要約: 既存のハードウェア対応NAS(HW-NAS)手法は、ターゲットデバイスを囲む正確な情報へのアクセスを前提としている。
そこで我々は,まず,合成デバイスの分布についてアーキテクチャコントローラを学習し,そのコントローラを直接ターゲットデバイスに展開する2段階のHW-NASフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.4611958892625645
- License:
- Abstract: Existing hardware-aware NAS (HW-NAS) methods typically assume access to precise information circa the target device, either via analytical approximations of the post-compilation latency model, or through learned latency predictors. Such approximate approaches risk introducing estimation errors that may prove detrimental in risk-sensitive applications. In this work, we propose a two-stage HW-NAS framework, in which we first learn an architecture controller on a distribution of synthetic devices, and then directly deploy the controller on a target device. At test-time, our network controller deploys directly to the target device without relying on any pre-collected information, and only exploits direct interactions. In particular, the pre-training phase on synthetic devices enables the controller to design an architecture for the target device by interacting with it through a small number of high-fidelity latency measurements. To guarantee accessibility of our method, we only train our controller with training-free accuracy proxies, allowing us to scale the meta-training phase without incurring the overhead of full network training. We benchmark on HW-NATS-Bench, demonstrating that our method generalizes to unseen devices and searches for latency-efficient architectures by in-context adaptation using only a few real-world latency evaluations at test-time.
- Abstract(参考訳): 既存のハードウェア対応NAS(HW-NAS)手法は、通常、コンパイル後の遅延モデルの解析的近似または学習された遅延予測器を通じて、ターゲットデバイスを囲む正確な情報へのアクセスを前提としている。
このような近似的なアプローチは、リスクに敏感なアプリケーションで有害な推定誤差を導入する。
本研究では,2段階のHW-NASフレームワークを提案する。このフレームワークはまず,合成デバイスの分布からアーキテクチャコントローラを学習し,次にターゲットデバイスに直接コントローラをデプロイする。
テスト時には、ネットワークコントローラは、事前に収集された情報に頼ることなく、ターゲットデバイスに直接デプロイし、直接のインタラクションのみを利用する。
特に、合成デバイス上での事前学習フェーズでは、少数の高忠実性遅延測定によって、ターゲットデバイスのためのアーキテクチャを設計することができる。
提案手法のアクセシビリティを保証するため,トレーニング不要な精度のプロキシでコントローラをトレーニングし,完全なネットワークトレーニングのオーバーヘッドを発生させることなく,メタトレーニングフェーズのスケールを可能にする。
我々は,HW-NATS-Benchをベンチマークし,本手法が未確認デバイスに一般化し,テスト時に少数の実世界の遅延評価を用いて,コンテキスト内適応により遅延効率の高いアーキテクチャを検索できることを実証した。
関連論文リスト
- Real-time Threat Detection Strategies for Resource-constrained Devices [1.4815508281465273]
本稿では,ルータ内のDNSトンネリング攻撃を効果的に処理するエンド・ツー・エンド・プロセスを提案する。
我々は、MLモデルをトレーニングするためにステートレスな機能を利用することと、ネットワーク構成から独立して選択した機能を利用することで、非常に正確な結果が得られることを実証した。
さまざまな環境にまたがる組み込みデバイスに最適化されたこの慎重に構築されたモデルのデプロイにより、最小のレイテンシでDNSチューニングされた攻撃検出が可能になった。
論文 参考訳(メタデータ) (2024-03-22T10:02:54Z) - On Latency Predictors for Neural Architecture Search [8.564763702766776]
本稿では,ハードウェア・デバイス・セットの自動分割による遅延予測タスクの包括的スイートについて紹介する。
次に,(1)予測器アーキテクチャ,(2)NNサンプル選択方法,(3)ハードウェアデバイス表現,(4)NN動作符号化方式を総合的に研究するために,一般遅延予測器を設計する。
本稿では,本研究の結論に基づいて,エンドツーエンドの遅延予測学習戦略を提案する。
論文 参考訳(メタデータ) (2024-03-04T19:59:32Z) - Physical-Layer Semantic-Aware Network for Zero-Shot Wireless Sensing [74.12670841657038]
デバイスレスワイヤレスセンシングは、幅広い没入型人間機械対話型アプリケーションをサポートする可能性から、近年、大きな関心を集めている。
無線信号におけるデータの均一性と分散センシングにおけるデータプライバシ規制は、広域ネットワークシステムにおける無線センシングの広範な適用を妨げる主要な課題であると考えられている。
そこで本研究では,ラベル付きデータを使わずに,一箇所ないし限られた箇所で構築されたモデルを直接他の場所に転送できるゼロショット無線センシングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-08T13:50:30Z) - DUET: A Tuning-Free Device-Cloud Collaborative Parameters Generation Framework for Efficient Device Model Generalization [66.27399823422665]
デバイスモデル一般化(Device Model Generalization, DMG)は、デバイス上での機械学習アプリケーションにおいて、実用的ながら実証されていない研究トピックである。
本稿では,Device-cloUdコラボレーティブパラメトリクスフレームワークDUETを提案する。
論文 参考訳(メタデータ) (2022-09-12T13:26:26Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - HELP: Hardware-Adaptive Efficient Latency Predictor for NAS via
Meta-Learning [43.751220068642624]
ハードウェア適応型予測器(HELP)は、メタ学習問題としてデバイス固有の遅延推定問題である。
レイテンシを出力するブラックボックス関数として考慮し,ハードウェア適応型遅延予測器をデバイス依存でメタ学習する,新たなハードウェア埋め込みを導入する。
提案するHELPの遅延推定性能について検証し,最大10個の測定サンプルを用いて高い推定性能を達成し,関連するベースラインを全て上回る結果を得た。
論文 参考訳(メタデータ) (2021-06-16T08:36:21Z) - Generalized Latency Performance Estimation for Once-For-All Neural
Architecture Search [0.0]
特定のハードウェアとNAS検索空間で訓練されたベースモデルを用いた微調整を含む2つの汎用性戦略を紹介します。
ProxylessNASに比べて50%以上低いRMSE損失を達成できる待ち時間予測モデル群を提供する。
論文 参考訳(メタデータ) (2021-01-04T00:48:09Z) - Integrated Benchmarking and Design for Reproducible and Accessible
Evaluation of Robotic Agents [61.36681529571202]
本稿では,開発とベンチマークを統合した再現性ロボット研究の新しい概念について述べる。
このセットアップの中心的なコンポーネントの1つはDuckietown Autolabであり、これは比較的低コストで再現可能な標準化されたセットアップである。
本研究では,インフラを用いて実施した実験の再現性を解析し,ロボットのハードウェアや遠隔実験室間でのばらつきが低いことを示す。
論文 参考訳(メタデータ) (2020-09-09T15:31:29Z) - Taurus: A Data Plane Architecture for Per-Packet ML [59.1343317736213]
本稿では,線数推論のためのデータプレーンであるTaurusの設計と実装について述べる。
Taurus スイッチ ASIC の評価は,Taurus がサーバベースコントロールプレーンよりも桁違いに高速に動作することを示す。
論文 参考訳(メタデータ) (2020-02-12T09:18:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。