論文の概要: Divide-and-Conquer the NAS puzzle in Resource Constrained Federated
Learning Systems
- arxiv url: http://arxiv.org/abs/2305.07135v1
- Date: Thu, 11 May 2023 20:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 14:35:20.897324
- Title: Divide-and-Conquer the NAS puzzle in Resource Constrained Federated
Learning Systems
- Title(参考訳): 資源制約付きフェデレーション学習システムにおけるNASパズルの除算
- Authors: Yeshwanth Venkatesha, Youngeun Kim, Hyoungseob Park, Priyadarshini
Panda
- Abstract要約: 我々は,超ネットベースのニューラルアーキテクチャサーチ(NAS)を,探索空間を体系的にサンプリングすることで,分散・分散方式のDC-NASを提案する。
提案手法は,サンプルを最大に分離したアダマールサンプリングなど,いくつかのサンプリング手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 5.53904487910875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a privacy-preserving distributed machine learning
approach geared towards applications in edge devices. However, the problem of
designing custom neural architectures in federated environments is not tackled
from the perspective of overall system efficiency. In this paper, we propose
DC-NAS -- a divide-and-conquer approach that performs supernet-based Neural
Architecture Search (NAS) in a federated system by systematically sampling the
search space. We propose a novel diversified sampling strategy that balances
exploration and exploitation of the search space by initially maximizing the
distance between the samples and progressively shrinking this distance as the
training progresses. We then perform channel pruning to reduce the training
complexity at the devices further. We show that our approach outperforms
several sampling strategies including Hadamard sampling, where the samples are
maximally separated. We evaluate our method on the CIFAR10, CIFAR100, EMNIST,
and TinyImagenet benchmarks and show a comprehensive analysis of different
aspects of federated learning such as scalability, and non-IID data. DC-NAS
achieves near iso-accuracy as compared to full-scale federated NAS with 50%
fewer resources.
- Abstract(参考訳): Federated Learning(FL)は、エッジデバイスのアプリケーションを対象とした、プライバシ保護の分散機械学習アプローチである。
しかしながら、連合環境でカスタムニューラルアーキテクチャを設計する問題は、システム全体の効率の観点からは取り組まれていない。
本稿では,システム内のスーパーネットに基づくニューラルネットワーク探索 (nas) を行う分割探索手法であるdc-nasを提案する。
本稿では,まず,標本間の距離を最大化し,訓練が進むにつれて,この距離を段階的に縮小することにより,探索空間の探索と利用のバランスをとる新しいサンプリング戦略を提案する。
続いてチャネルプルーニングを行い、さらにデバイスでのトレーニングの複雑さを低減します。
本手法は,サンプルを最大に分離したアダマールサンプリングなど,いくつかのサンプリング戦略に勝ることを示す。
我々は, CIFAR10, CIFAR100, EMNIST, TinyImagenetベンチマークを用いて, 拡張性や非IIDデータといったフェデレート学習のさまざまな側面の包括的解析を行った。
DC-NASは、フルスケールのフェデレーションNASに比べて50%少ないリソースで、ほぼ等精度を実現している。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - The devil is in discretization discrepancy. Robustifying Differentiable NAS with Single-Stage Searching Protocol [2.4300749758571905]
勾配に基づく手法は離散化誤差に悩まされ、最終的なアーキテクチャを得る過程を著しく損なう可能性がある。
本稿では,連続的なアーキテクチャの復号化に依存しない新しい単一ステージ探索プロトコルを提案する。
本手法は,Cityscapes検証データセットの検索段階において75.3%の精度で他のDNAS法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T15:44:53Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Towards Self-supervised and Weight-preserving Neural Architecture Search [38.497608743382145]
本研究では,現在のNASフレームワークの拡張として,自己教師付き重み保存型ニューラルネットワーク探索(SSWP-NAS)を提案する。
CIFAR-10, CIFAR-100, ImageNetデータセットにおいて, 提案したフレームワークによって探索されたアーキテクチャが, 最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2022-06-08T18:48:05Z) - Supernet Training for Federated Image Classification under System
Heterogeneity [15.2292571922932]
本研究では,2つのシナリオ,すなわちフェデレーション・オブ・スーパーネット・トレーニング(FedSup)を考えるための新しい枠組みを提案する。
フェデレートラーニング(FL)のモデルアグリゲーション段階でのパラメータの平均化は、スーパーネットトレーニングにおけるウェイトシェアリングとどのように似ているかに着想を得ている。
本フレームワークでは,通信コストの削減とトレーニングオーバーヘッドの低減のために,放送段階のクライアントにサブモデルを送信することで,効率的なアルゴリズム(E-FedSup)を提案する。
論文 参考訳(メタデータ) (2022-06-03T02:21:01Z) - Understanding and Accelerating Neural Architecture Search with
Training-Free and Theory-Grounded Metrics [117.4281417428145]
この作業は、ニューラルネットワークサーチ(NAS)のための原則的で統一的なトレーニングフリーフレームワークの設計を目標としている。
NASは、高性能ニューラルネットワークの発見を自動化するために爆発的に研究されてきたが、資源消費に悩まされ、しばしば訓練や近似によって探索バイアスを引き起こす。
我々は,検索ネットワークの「TEG」特性を解消し,NASを理解し,加速するための統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-26T17:52:07Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - ES-ENAS: Combining Evolution Strategies with Neural Architecture Search
at No Extra Cost for Reinforcement Learning [46.4401207304477]
強化学習(RL)政策設計を目的とした単純なニューラルネットワーク探索(NAS)アルゴリズムES-ENASについて紹介する。
複数のタスクに対する90%以上のネットワーク圧縮を実現し,ストレージと計算資源に制限のある移動ロボット工学に特に関心を持つ可能性がある。
論文 参考訳(メタデータ) (2021-01-19T02:19:05Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。