論文の概要: FL-NAS: Towards Fairness of NAS for Resource Constrained Devices via
Large Language Models
- arxiv url: http://arxiv.org/abs/2402.06696v1
- Date: Fri, 9 Feb 2024 00:49:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 19:43:13.562499
- Title: FL-NAS: Towards Fairness of NAS for Resource Constrained Devices via
Large Language Models
- Title(参考訳): FL-NAS:大規模言語モデルによる資源制約デバイスのためのNASの公平性を目指して
- Authors: Ruiyang Qin, Yuting Hu, Zheyu Yan, Jinjun Xiong, Ahmed Abbasi, Yiyu
Shi
- Abstract要約: 本稿では,3つの重要な設計指標を同時に検討することにより,この方向をさらに探究する。
本稿では,新しいLCMベースのNASフレームワークFL-NASを提案する。
FL-NASが実際に高い性能のDNNを見出すことができ、ほぼすべての設計上の考慮事項において、最先端のDNNモデルよりも精度が高いことを示す。
- 参考スコア(独自算出の注目度): 24.990028167518226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Architecture Search (NAS) has become the de fecto tools in the
industry in automating the design of deep neural networks for various
applications, especially those driven by mobile and edge devices with limited
computing resources. The emerging large language models (LLMs), due to their
prowess, have also been incorporated into NAS recently and show some promising
results. This paper conducts further exploration in this direction by
considering three important design metrics simultaneously, i.e., model
accuracy, fairness, and hardware deployment efficiency. We propose a novel
LLM-based NAS framework, FL-NAS, in this paper, and show experimentally that
FL-NAS can indeed find high-performing DNNs, beating state-of-the-art DNN
models by orders-of-magnitude across almost all design considerations.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は、様々なアプリケーション、特に限られたコンピューティングリソースを持つモバイルおよびエッジデバイスによって駆動されるディープニューラルネットワークの設計を自動化する、業界におけるデフェクトツールとなっている。
新興の大規模言語モデル(LLM)もNASに組み込まれており、いくつかの有望な結果を示している。
本稿では,モデル精度,公平性,ハードウェア展開効率という3つの重要な設計指標を同時に考慮し,この方向のさらなる探究を行う。
本稿では, LLMに基づく新しいNASフレームワークFL-NASを提案し, FL-NASが実際に高い性能のDNNを発見できることを示す。
関連論文リスト
- Fair Differentiable Neural Network Architecture Search for Long-Tailed Data with Self-Supervised Learning [0.0]
本稿では,NASの長期化データセットにおける探索・訓練性能の向上について検討する。
まず、NASに関する関連する研究と、長い尾を持つデータセットに対するディープラーニング手法について論じる。
次に、自己教師付き学習と公正な差別化可能なNASを統合したSSF-NASと呼ばれる既存の研究に焦点を当てる。
最後に,性能評価のためのCIFAR10-LTデータセットについて実験を行った。
論文 参考訳(メタデータ) (2024-06-19T12:39:02Z) - FlatNAS: optimizing Flatness in Neural Architecture Search for
Out-of-Distribution Robustness [3.724847012963521]
本研究では、FlatNAS(Flat Neural Architecture Search)と呼ばれる新しいNASソリューションを提案する。
シャープネス・アウェア・ミニマライゼーション(SAM)を用いた1つのNN最適化と頑健さから重みへの摂動に基づく新しいメリット像の相互作用を探索する。
NAS設計モデルのOODロバスト性は、文献における一般的なベンチマークデータセットを用いて、入力データの破損に対するロバスト性に着目して評価される。
論文 参考訳(メタデータ) (2024-02-29T12:33:14Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - Data Aware Neural Architecture Search [0.12891210250935145]
機械学習では、NNアーキテクチャを評価するのに1つのメトリクスだけでは不十分である。
資源制約システムのためのNASに関する最近の研究は、複数のメトリクスを最適化するための様々なアプローチについて研究している。
このようなシステムに“Data Aware NAS”と命名し,そのメリットを示す実験的な証拠を提供する。
論文 参考訳(メタデータ) (2023-04-04T14:20:36Z) - Generalization Properties of NAS under Activation and Skip Connection
Search [66.8386847112332]
ニューラルネットワーク探索(NAS)の一般化特性を統一的枠組みの下で検討する。
我々は, 有限幅政権下でのニューラル・タンジェント・カーネル(NTK)の最小固有値の下(および上)境界を導出する。
トレーニングなしでもNASがトップパフォーマンスアーキテクチャを選択する方法を示す。
論文 参考訳(メタデータ) (2022-09-15T12:11:41Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - MicroNets: Neural Network Architectures for Deploying TinyML
Applications on Commodity Microcontrollers [18.662026553041937]
リソース制約付きマイクロコントローラ(MCU)による機械学習は、IoT(Internet of Things)のアプリケーション領域を大幅に拡大することを約束する
TinyMLは、ディープニューラルネットワーク推論が大きな計算とメモリの予算を必要とするため、深刻な技術的課題を提示している。
ニューラルネットワークサーチ(NAS)は、厳密なMCUメモリ、レイテンシ、エネルギー制約を満たす正確なMLモデルの設計を支援する。
論文 参考訳(メタデータ) (2020-10-21T19:39:39Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。