論文の概要: Data Aware Differentiable Neural Architecture Search for Tiny Keyword Spotting Applications
- arxiv url: http://arxiv.org/abs/2507.15545v1
- Date: Mon, 21 Jul 2025 12:18:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.386542
- Title: Data Aware Differentiable Neural Architecture Search for Tiny Keyword Spotting Applications
- Title(参考訳): キーワードスポッティングアプリケーションのための識別可能なニューラルアーキテクチャ探索
- Authors: Yujia Shi, Emil Njor, Pablo Martínez-Nuevo, Sven Ewan Shepstone, Xenofon Fafoutis,
- Abstract要約: 我々は「微分可能なニューラルアーキテクチャ探索」を紹介する。
弊社のアプローチでは、検索スペースを拡張して、データ構成パラメータとアーキテクチャ上の選択を含むようにしています。
これにより、モデルアーキテクチャと入力データ特性を共最適化する、Data Aware Differentiable Neural Architecture Searchが可能になる。
- 参考スコア(独自算出の注目度): 1.88743314507114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of Machine Learning is increasingly tempered by its significant resource footprint, driving interest in efficient paradigms like TinyML. However, the inherent complexity of designing TinyML systems hampers their broad adoption. To reduce this complexity, we introduce "Data Aware Differentiable Neural Architecture Search". Unlike conventional Differentiable Neural Architecture Search, our approach expands the search space to include data configuration parameters alongside architectural choices. This enables Data Aware Differentiable Neural Architecture Search to co-optimize model architecture and input data characteristics, effectively balancing resource usage and system performance for TinyML applications. Initial results on keyword spotting demonstrate that this novel approach to TinyML system design can generate lean but highly accurate systems.
- Abstract(参考訳): 機械学習の成功は、TinyMLのような効率的なパラダイムへの関心を喚起し、その重要なリソースフットプリントによってますます誘惑されている。
しかし、TinyMLシステムを設計する本来の複雑さは、広く採用されていることを妨げている。
この複雑さを減らすために、我々は"Data Aware Differentiable Neural Architecture Search"を紹介した。
従来の微分可能なニューラルアーキテクチャサーチとは異なり、我々の手法は検索空間を拡張し、アーキテクチャ上の選択と並行してデータ構成パラメータを含める。
これにより、モデルアーキテクチャと入力データ特性を協調最適化し、TinyMLアプリケーションのリソース使用量とシステムパフォーマンスを効果的にバランスできるData Aware Differentiable Neural Architecture Searchが可能になる。
キーワードスポッティングの初期結果は、TinyMLシステム設計に対するこの新しいアプローチが、リーンだが高精度なシステムを生成することを実証している。
関連論文リスト
- ZeroLM: Data-Free Transformer Architecture Search for Language Models [54.83882149157548]
現在の自動プロキシ発見アプローチは、検索時間の拡張、データの過度なオーバーフィットへの感受性、構造的な複雑さに悩まされている。
本稿では,効率的な重み統計によるモデルキャパシティの定量化を目的とした,新しいゼロコストプロキシ手法を提案する。
本評価は,FlexiBERT ベンチマークで Spearman's rho 0.76 と Kendall's tau 0.53 を達成し,このアプローチの優位性を示すものである。
論文 参考訳(メタデータ) (2025-03-24T13:11:22Z) - Fast Data Aware Neural Architecture Search via Supernet Accelerated Evaluation [0.43550340493919387]
TinyML(TinyML)は、医療、環境モニタリング、産業保守といった分野に革命をもたらすことを約束している。
TinyMLデプロイメントの成功に必要な複雑な最適化は、広く採用されていることを妨げ続けている。
本稿では,最新のデータ認識ニューラルアーキテクチャ検索手法を提案し,新しいTinyML VisionWakeデータセットの有効性を実証する。
論文 参考訳(メタデータ) (2025-02-18T09:51:03Z) - EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [20.209756662832365]
微分可能なニューラルアーキテクチャサーチ(DARTS)は、高い探索効率でアーキテクチャ設計のマニュアルプロセスを自動化する。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
EM-DARTSは、最先端の認識性能につながる最適なアーキテクチャを実現できることを示す。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - AutoTransfer: AutoML with Knowledge Transfer -- An Application to Graph
Neural Networks [75.11008617118908]
AutoML技術は、各タスクをスクラッチから独立して考慮し、高い計算コストをもたらす。
本稿では,従来の設計知識を新たな関心事に伝達することで,検索効率を向上させるAutoTransferを提案する。
論文 参考訳(メタデータ) (2023-03-14T07:23:16Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Efficient Search of Multiple Neural Architectures with Different
Complexities via Importance Sampling [3.759936323189417]
本研究では、2つのメトリクスの重み付け和からなる目的関数を最適化するアーキテクチャの複雑性を考慮したワンショットNASに焦点を当てた。
提案手法は,CIAFR-10およびImageNetデータセット上の畳み込みニューラルネットワークのアーキテクチャ探索に適用される。
論文 参考訳(メタデータ) (2022-07-21T07:06:03Z) - Revealing the Invisible with Model and Data Shrinking for
Composite-database Micro-expression Recognition [49.463864096615254]
入力複雑性とモデル複雑性を含む学習複雑性の影響を分析する。
より浅層構造と低分解能入力データを探索する再帰畳み込みネットワーク(RCN)を提案する。
学習可能なパラメータを増やさなくてもRCNと統合できる3つのパラメータフリーモジュールを開発した。
論文 参考訳(メタデータ) (2020-06-17T06:19:24Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。