論文の概要: FDNAS: Improving Data Privacy and Model Diversity in AutoML
- arxiv url: http://arxiv.org/abs/2011.03372v1
- Date: Fri, 6 Nov 2020 14:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 04:32:36.331304
- Title: FDNAS: Improving Data Privacy and Model Diversity in AutoML
- Title(参考訳): FDNAS: AutoMLのデータプライバシとモデルの多様性を改善する
- Authors: Chunhui Zhang, Yongyuan Liang, Xiaoming Yuan, and Lei Cheng
- Abstract要約: クライアントの分散データからハードウェアを意識したNASを実現するためのFDNAS(Federated Direct Neural Architecture Search)フレームワークを提案する。
メタラーニングにインスパイアされたクライアントのデータ分散をさらに適応させるために、CFDNAS(Federated Direct Neural Architecture Search)フレームワークが提案され、クライアント対応NASを実現する。
- 参考スコア(独自算出の注目度): 7.402044070683503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To prevent the leakage of private information while enabling automated
machine intelligence, there is an emerging trend to integrate federated
learning and Neural Architecture Search (NAS). Although promising as it may
seem, the coupling of difficulties from both two tenets makes the algorithm
development quite challenging. In particular, how to efficiently search the
optimal neural architecture directly from massive non-iid data of clients in a
federated manner remains to be a hard nut to crack. To tackle this challenge,
in this paper, by leveraging the advances in proxy-less NAS, we propose a
Federated Direct Neural Architecture Search (FDNAS) framework that allows
hardware-aware NAS from decentralized non-iid data of clients. To further adapt
for various data distributions of clients, inspired by meta-learning, a cluster
Federated Direct Neural Architecture Search (CFDNAS) framework is proposed to
achieve client-aware NAS, in the sense that each client can learn a tailored
deep learning model for its particular data distribution. Extensive experiments
on real-world non-iid datasets show state-of-the-art accuracy-efficiency
trade-offs for various hardware and data distributions of clients. Our codes
will be released publicly upon paper acceptance.
- Abstract(参考訳): 自動マシンインテリジェンスを有効にしながら、プライベート情報の漏洩を防止するため、フェデレーションラーニングとニューラルアーキテクチャサーチ(NAS)を統合する傾向が高まっている。
期待できるように思えるが、両者の難しさの結合はアルゴリズム開発を非常に困難にしている。
特に、フェデレートされた方法でクライアントの大量の非IDデータから直接、最適なニューラルネットワークを直接検索する方法は、いまだに難しい。
本稿では、プロキシレスNASの進歩を活用して、ハードウェアを意識したNASをクライアントの分散非IDデータから利用できるFDNAS(Federated Direct Neural Architecture Search)フレームワークを提案する。
メタラーニングにインスパイアされたクライアントのデータ分散にさらに適応するために、各クライアントが特定のデータ分散のために適切なディープラーニングモデルを学ぶことができるという意味で、クライアントを意識したNASを実現するために、CFDNAS(Federated Direct Neural Architecture Search)フレームワークが提案されている。
実世界の非IDデータセットに関する大規模な実験は、クライアントのさまざまなハードウェアおよびデータ分散に対する最先端の精度効率トレードオフを示している。
私たちのコードは受理後公開されます。
関連論文リスト
- Fair Differentiable Neural Network Architecture Search for Long-Tailed Data with Self-Supervised Learning [0.0]
本稿では,NASの長期化データセットにおける探索・訓練性能の向上について検討する。
まず、NASに関する関連する研究と、長い尾を持つデータセットに対するディープラーニング手法について論じる。
次に、自己教師付き学習と公正な差別化可能なNASを統合したSSF-NASと呼ばれる既存の研究に焦点を当てる。
最後に,性能評価のためのCIFAR10-LTデータセットについて実験を行った。
論文 参考訳(メタデータ) (2024-06-19T12:39:02Z) - Insights from the Use of Previously Unseen Neural Architecture Search Datasets [6.239015118429603]
我々は、一連のNASチャレンジのために作成された8つの新しいデータセットを示す:AddNIST、Language、MultNIST、CIFARTile、Gutenberg、Isabella、GeoClassing、Chesseract。
これらのデータセットと課題は、NAS開発における問題に注意を向け、開発時に未知のデータセット上でモデルがどのように機能するかを著者に検討するよう促すために開発されている。
論文 参考訳(メタデータ) (2024-04-02T16:48:34Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - Meta-prediction Model for Distillation-Aware NAS on Unseen Datasets [55.2118691522524]
Distillation-Aware Neural Architecture Search (DaNAS) は、最適な学生アーキテクチャを探すことを目的としている。
本稿では,あるアーキテクチャの最終的な性能をデータセット上で予測できる,蒸留対応のメタ精度予測モデルDaSSを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:00:35Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - UnrealNAS: Can We Search Neural Architectures with Unreal Data? [84.78460976605425]
ニューラルアーキテクチャサーチ(NAS)はディープニューラルネットワーク(DNN)の自動設計において大きな成功を収めた。
これまでの研究は、NASに地道ラベルを持つことの必要性を分析し、幅広い関心を喚起した。
NASが有効であるためには、実際のデータが必要であるかどうか、さらに疑問を呈する。
論文 参考訳(メタデータ) (2022-05-04T16:30:26Z) - Towards Tailored Models on Private AIoT Devices: Federated Direct Neural
Architecture Search [22.69123714900226]
デバイス間の非IDデータからハードウェアフレンドリなNASを実現するためのFDNAS(Federated Direct Neural Architecture Search)フレームワークを提案する。
非IIDデータセットの実験では、提案したソリューションによって達成された最先端の精度効率トレードオフが示されている。
論文 参考訳(メタデータ) (2022-02-23T13:10:01Z) - Direct Federated Neural Architecture Search [0.0]
本稿では,ハードウェアに依存せず,計算的に軽量な直接フェデレーションNASと,準備の整ったニューラルネットワークモデルを探すためのワンステージ手法を提案する。
以上の結果から, 従来技術の精度向上を図りながら, 資源消費の大幅な削減を図った。
論文 参考訳(メタデータ) (2020-10-13T08:11:35Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - Federated Neural Architecture Search [19.573780215917477]
我々は、フェデレートニューラルアーキテクチャサーチと呼ばれる新しいDNNトレーニングパラダイムとして、分散トレーニングへの自動ニューラルアーキテクチャサーチを提案する。
我々は、効率的なフェデレーションNASのための高度に最適化されたフレームワークであるFedNASを提案する。
大規模なデータセットと典型的なCNNアーキテクチャでテストされたFedNASは、最先端NASアルゴリズムと同等のモデル精度を達成している。
論文 参考訳(メタデータ) (2020-02-15T10:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。