論文の概要: DeepFedNAS: A Unified Framework for Principled, Hardware-Aware, and Predictor-Free Federated Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2601.15127v1
- Date: Wed, 21 Jan 2026 16:03:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.445718
- Title: DeepFedNAS: A Unified Framework for Principled, Hardware-Aware, and Predictor-Free Federated Neural Architecture Search
- Title(参考訳): DeepFedNAS: 原則付き、ハードウェア対応、予測自由なフェデレーションニューラルアーキテクチャ検索のための統一フレームワーク
- Authors: Bostan Khan, Masoud Daneshtalab,
- Abstract要約: DeepFedNASは、プライバシ保護学習(FL)のためのモデル設計を自動化する
FedNASは現在、2つの重要なボトルネックに直面している。
DeepFedNAS(DeepFedNAS)は、原則付き多目的フィットネス機能によって支えられた新しい2相フレームワークである。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Neural Architecture Search (FedNAS) aims to automate model design for privacy-preserving Federated Learning (FL) but currently faces two critical bottlenecks: unguided supernet training that yields suboptimal models, and costly multi-hour pipelines for post-training subnet discovery. We introduce DeepFedNAS, a novel, two-phase framework underpinned by a principled, multi-objective fitness function that synthesizes mathematical network design with architectural heuristics. Enabled by a re-engineered supernet, DeepFedNAS introduces Federated Pareto Optimal Supernet Training, which leverages a pre-computed Pareto-optimal cache of high-fitness architectures as an intelligent curriculum to optimize shared supernet weights. Subsequently, its Predictor-Free Search Method eliminates the need for costly accuracy surrogates by utilizing this fitness function as a direct, zero-cost proxy for accuracy, enabling on-demand subnet discovery in mere seconds. DeepFedNAS achieves state-of-the-art accuracy (e.g., up to 1.21% absolute improvement on CIFAR-100), superior parameter and communication efficiency, and a substantial ~61x speedup in total post-training search pipeline time. By reducing the pipeline from over 20 hours to approximately 20 minutes (including initial cache generation) and enabling 20-second individual subnet searches, DeepFedNAS makes hardware-aware FL deployments instantaneous and practical. The complete source code and experimental scripts are available at: https://github.com/bostankhan6/DeepFedNAS
- Abstract(参考訳): Federated Neural Architecture Search (FedNAS)は、プライバシ保護のためのモデル設計を自動化することを目的としているが、現在は2つの重要なボトルネックに直面している。
DeepFedNASは、数学的ネットワーク設計をアーキテクチャヒューリスティックスで合成する、原理化された多目的フィットネス関数を基盤とした、新しい2相フレームワークである。
再設計されたスーパーネットによって実現されたDeepFedNASは、共有スーパーネット重量を最適化するためのインテリジェントなカリキュラムとして、高適合アーキテクチャの計算済みパレート最適化キャッシュを活用するFederated Pareto Optimal Supernet Trainingを導入する。
その後、Predictor-Free Search Methodは、このフィットネス機能を正確性のための直接ゼロコストプロキシとして利用することにより、コストのかかるサロゲートを不要にし、オンデマンドのサブネットをほんの数秒で発見できる。
DeepFedNASは、最先端の精度(例えば、CIFAR-100の1.21%の絶対的な改善)、優れたパラメータと通信効率、そして、訓練後の検索パイプライン時間全体の約61倍のスピードアップを達成する。
パイプラインを20時間以上から約20分(初期キャッシュ生成を含む)に短縮し、20秒の個別サブネット検索を可能にすることで、DeepFedNASはハードウェア対応FLデプロイメントを即時かつ実用的なものにする。
完全なソースコードと実験用スクリプトは、https://github.com/bostankhan6/DeepFedNASで入手できる。
関連論文リスト
- HyperNAS: Enhancing Architecture Representation for NAS Predictor via Hypernetwork [37.904207059004385]
HyperNASは、アーキテクチャ表現学習を強化するための新しい神経予測パラダイムである。
我々は、HyperNASがCIFAR-10で97.60%、ImageNetで82.4%、少なくとも5.0$times$より少ないサンプルを使用して、新しい最先端の結果を打つことを示した。
論文 参考訳(メタデータ) (2025-09-16T11:49:12Z) - SalNAS: Efficient Saliency-prediction Neural Architecture Search with self-knowledge distillation [7.625269122161064]
近年の深部畳み込み型ニューラルネットワークの進歩により,サリエンシ予測の性能が大幅に向上した。
本稿では,2つのコントリビューションを持つ有能性予測のためのニューラルアーキテクチャ検索フレームワークを提案する。
自己KDを利用することで、SalNASは、ほとんどの評価ルーリックにおいて、他の最先端の精度予測モデルより優れている。
論文 参考訳(メタデータ) (2024-07-29T14:48:34Z) - Mixture-of-Supernets: Improving Weight-Sharing Supernet Training with Architecture-Routed Mixture-of-Experts [55.470959564665705]
ウェイトシェアリングスーパーネットは、最先端のニューラルサーチフレームワークのパフォーマンス評価に不可欠である。
提案手法は,高速機械翻訳モデルのためのNASにおける最先端(SoTA)性能を実現する。
メモリ効率のよいタスク非依存のBERTモデルを構築するためにNASが優れている。
論文 参考訳(メタデータ) (2023-06-08T00:35:36Z) - Towards Self-supervised and Weight-preserving Neural Architecture Search [38.497608743382145]
本研究では,現在のNASフレームワークの拡張として,自己教師付き重み保存型ニューラルネットワーク探索(SSWP-NAS)を提案する。
CIFAR-10, CIFAR-100, ImageNetデータセットにおいて, 提案したフレームワークによって探索されたアーキテクチャが, 最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2022-06-08T18:48:05Z) - L$^{2}$NAS: Learning to Optimize Neural Architectures via
Continuous-Action Reinforcement Learning [23.25155249879658]
微分可能なアーキテクチャサーチ(NAS)は、ディープニューラルネットワーク設計において顕著な結果を得た。
L$2$は,DART201ベンチマークやNASS,Imse-for-All検索ポリシで,最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-09-25T19:26:30Z) - FNAS: Uncertainty-Aware Fast Neural Architecture Search [54.49650267859032]
強化学習(Reinforcement Learning, RL)に基づくニューラルアーキテクチャサーチ(NAS)は一般的に、収束性の向上を保証するが、巨大な計算資源の要求に悩まされる。
NASにおけるロールアウトプロセスとRLプロセスの収束を加速する汎用パイプラインを提案する。
Mobile Neural Architecture Search (MNAS)サーチスペースの実験では、提案するFast Neural Architecture Search (FNAS)が標準のRLベースのNASプロセスを10倍高速化することを示した。
論文 参考訳(メタデータ) (2021-05-25T06:32:52Z) - Neural Architecture Search on ImageNet in Four GPU Hours: A
Theoretically Inspired Perspective [88.39981851247727]
トレーニングフリーニューラルアーキテクチャサーチ(TE-NAS)という新しいフレームワークを提案する。
TE-NASは、ニューラルネットワークカーネル(NTK)のスペクトルと入力空間内の線形領域の数を分析することによってアーキテクチャをランク付けする。
1) この2つの測定はニューラルネットワークのトレーサビリティと表現性を示し, (2) ネットワークのテスト精度と強く相関することを示した。
論文 参考訳(メタデータ) (2021-02-23T07:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。