論文の概要: Communication-Efficient and Privacy-Preserving Feature-based Federated
Transfer Learning
- arxiv url: http://arxiv.org/abs/2209.05395v1
- Date: Mon, 12 Sep 2022 16:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:45:28.141575
- Title: Communication-Efficient and Privacy-Preserving Feature-based Federated
Transfer Learning
- Title(参考訳): コミュニケーション効率とプライバシ保全機能に基づくフェデレーショントランスファー学習
- Authors: Feng Wang, M. Cenk Gursoy and Senem Velipasalar
- Abstract要約: フェデレーション学習は、クライアントのプライバシを保存することで、関心が高まりつつある。
無線帯域が限られているため、無線リンクによるフェデレート学習の通信効率が重要となる。
上りペイロードを5桁以上削減する革新的な手法として,特徴に基づくフェデレーション・トランスファー・ラーニングを提案する。
- 参考スコア(独自算出の注目度): 11.758703301702012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has attracted growing interest as it preserves the
clients' privacy. As a variant of federated learning, federated transfer
learning utilizes the knowledge from similar tasks and thus has also been
intensively studied. However, due to the limited radio spectrum, the
communication efficiency of federated learning via wireless links is critical
since some tasks may require thousands of Terabytes of uplink payload. In order
to improve the communication efficiency, we in this paper propose the
feature-based federated transfer learning as an innovative approach to reduce
the uplink payload by more than five orders of magnitude compared to that of
existing approaches. We first introduce the system design in which the
extracted features and outputs are uploaded instead of parameter updates, and
then determine the required payload with this approach and provide comparisons
with the existing approaches. Subsequently, we analyze the random shuffling
scheme that preserves the clients' privacy. Finally, we evaluate the
performance of the proposed learning scheme via experiments on an image
classification task to show its effectiveness.
- Abstract(参考訳): フェデレーション学習は、クライアントのプライバシを保ちながら、関心を集めている。
フェデレーション学習の変種として、フェデレーション伝達学習は類似したタスクからの知識を活用し、集中的に研究されている。
しかし、無線帯域が限られているため、無線リンクによるフェデレート学習の通信効率は、数千テラバイトのアップリンクペイロードを必要とするタスクがあるため、重要である。
本稿では,コミュニケーション効率を向上させるために,既存の手法と比較して,アップリンクペイロードを5桁以上削減するための革新的な手法として,機能ベースフェデレート転送学習を提案する。
まず,パラメータ更新に代えて抽出した特徴と出力をアップロードするシステム設計を行い,このアプローチで必要なペイロードを決定し,既存のアプローチとの比較を行う。
その後,クライアントのプライバシを保護するランダムシャッフルスキームを分析した。
最後に,提案手法の有効性を示すために,画像分類タスクの実験を通して,提案手法の性能を評価する。
関連論文リスト
- Feature-based Federated Transfer Learning: Communication Efficiency, Robustness and Privacy [11.308544280789016]
本稿では,コミュニケーション効率向上のための新しい手法として,特徴に基づくフェデレーション・トランスファー・ラーニングを提案する。
具体的には,提案した特徴に基づくフェデレーション学習において,パラメータ更新ではなく,抽出した特徴と出力をアップロードするように設計する。
画像分類タスクと自然言語処理タスクを用いて,提案手法の性能評価を行い,その有効性を実証した。
論文 参考訳(メタデータ) (2024-05-15T00:43:19Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FedClassAvg: Local Representation Learning for Personalized Federated
Learning on Heterogeneous Neural Networks [21.613436984547917]
我々は、フェデレーション分類器平均化(FedClassAvg)と呼ばれる、新しいパーソナライズされたフェデレーション学習手法を提案する。
FedClassAvgは、特徴空間上の決定境界に関する合意として重みを集約する。
異質なパーソナライズされたフェデレーション学習タスクにおいて、現在の最先端のアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-25T08:32:08Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - ProtoDA: Efficient Transfer Learning for Few-Shot Intent Classification [21.933876113300897]
我々は,メタラーニングパラダイムの下で,原型ネットワークを用いた関連するタスクのアンサンブル上での伝達学習による代替的アプローチを採用する。
本研究は,意図分類を事例として,学習課題における多様性の増大が,分類性能を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-01-28T00:19:13Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。