論文の概要: PhaseNAS: Language-Model Driven Architecture Search with Dynamic Phase Adaptation
- arxiv url: http://arxiv.org/abs/2507.20592v1
- Date: Mon, 28 Jul 2025 08:02:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.972081
- Title: PhaseNAS: Language-Model Driven Architecture Search with Dynamic Phase Adaptation
- Title(参考訳): PhaseNAS:動的位相適応による言語モデル駆動アーキテクチャ検索
- Authors: Fei Kong, Xiaohan Shan, Yanwei Hu, Jianmin Li,
- Abstract要約: PhaseNASは、効率的で適応的で一般化可能なニューラルネットワーク探索(NAS)フレームワークである。
フェーズNASは、高い精度とより良いランクのアーキテクチャを一貫して発見する。
画像分類では、PhaseNASは検索時間を最大86%削減し、精度を維持または改善する。
オブジェクト検出では、より高いmAPと低いリソースコストでYOLOv8の変種を自動生成する。
- 参考スコア(独自算出の注目度): 3.16934691904207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) is challenged by the trade-off between search space exploration and efficiency, especially for complex tasks. While recent LLM-based NAS methods have shown promise, they often suffer from static search strategies and ambiguous architecture representations. We propose PhaseNAS, an LLM-based NAS framework with dynamic phase transitions guided by real-time score thresholds and a structured architecture template language for consistent code generation. On the NAS-Bench-Macro benchmark, PhaseNAS consistently discovers architectures with higher accuracy and better rank. For image classification (CIFAR-10/100), PhaseNAS reduces search time by up to 86% while maintaining or improving accuracy. In object detection, it automatically produces YOLOv8 variants with higher mAP and lower resource cost. These results demonstrate that PhaseNAS enables efficient, adaptive, and generalizable NAS across diverse vision tasks.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は、特に複雑なタスクにおいて、探索空間探索と効率のトレードオフによって挑戦される。
最近のLSMベースのNAS手法は有望であるが、静的検索戦略やあいまいなアーキテクチャ表現に悩まされることが多い。
我々は、リアルタイムスコア閾値で案内される動的位相遷移を持つLCMベースのNASフレームワークであるPhaseNASと、一貫したコード生成のための構造化アーキテクチャテンプレート言語を提案する。
NAS-Bench-Macroベンチマークでは、フェーズNASは高い精度とより良いランクのアーキテクチャを常に発見している。
画像分類(CIFAR-10/100)では、検索時間を最大86%削減し、精度を維持または改善する。
オブジェクト検出では、より高いmAPと低いリソースコストでYOLOv8の変種を自動生成する。
これらの結果から、PhaseNASは多様な視覚タスクにまたがる効率、適応性、一般化可能なNASを可能にすることが示された。
関連論文リスト
- DDS-NAS: Dynamic Data Selection within Neural Architecture Search via On-line Hard Example Mining applied to Image Classification [13.427500787277031]
カリキュラム学習フレームワーク内の動的ハードサンプルマイニングを通じて、ニューラルネットワーク検索(NAS)トレーニングを高速化します。
トレーニング中の各画像サンプルの寄与を最大化することにより、NASトレーニングサイクルの持続時間と収束に必要なイテレーション数を削減する。
論文 参考訳(メタデータ) (2025-06-17T15:58:10Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [56.09418231453024]
ニューラルアーキテクチャサーチ(NAS)により、研究者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく相互比較比較支援型多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - TND-NAS: Towards Non-differentiable Objectives in Progressive
Differentiable NAS Framework [6.895590095853327]
微分可能なアーキテクチャサーチは、ニューラルネットワークサーチ(NAS)分野において、徐々に主流の研究トピックになりつつある。
最近の差別化可能なNASは、検索性能の向上とGPUメモリ消費の削減も目指している。
微分可能なNASフレームワークにおける高効率と、多目的NASにおける非微分可能なメトリクス間の互換性を両立させたTND-NASを提案する。
論文 参考訳(メタデータ) (2021-11-06T14:19:36Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - AdvantageNAS: Efficient Neural Architecture Search with Credit
Assignment [23.988393741948485]
ワンショット・スパース伝播NAS(AdvantageNAS)の新たな探索戦略を提案する。
アドバンテージNASは、アーキテクチャ更新の勾配推定にクレジット割り当てを導入することで検索効率を向上させるグラデーションベースのアプローチです。
NAS-Bench-201およびPTBデータセットの実験は、AdvantageNASが限られた時間予算でより高いパフォーマンスのアーキテクチャを発見することを示しています。
論文 参考訳(メタデータ) (2020-12-11T05:45:03Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。