論文の概要: A Comprehensive Survey of Federated Transfer Learning: Challenges,
Methods and Applications
- arxiv url: http://arxiv.org/abs/2403.01387v1
- Date: Sun, 3 Mar 2024 03:52:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 21:47:38.096947
- Title: A Comprehensive Survey of Federated Transfer Learning: Challenges,
Methods and Applications
- Title(参考訳): フェデレーション・トランスファー学習に関する包括的調査--課題・方法・応用
- Authors: Wei Guo, Fuzhen Zhuang, Xiao Zhang, Yiqi Tong, Jin Dong
- Abstract要約: Federated Learning(FL)は、分散機械学習パラダイムであり、参加者がプライバシ保護を備えた集中型モデルを協調的にトレーニングすることを可能にする。
多くのFL法は、各参加者のトレーニングデータとテストデータが同じ特徴空間と同じ基礎分布からサンプリングされないため、うまく機能しない。
この問題を解決するために、フェデレートトランスファーラーニング(FTL)が多くの研究者の注目を集めている。
- 参考スコア(独自算出の注目度): 28.677457598856538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a novel distributed machine learning paradigm that
enables participants to collaboratively train a centralized model with privacy
preservation by eliminating the requirement of data sharing. In practice, FL
often involves multiple participants and requires the third party to aggregate
global information to guide the update of the target participant. Therefore,
many FL methods do not work well due to the training and test data of each
participant may not be sampled from the same feature space and the same
underlying distribution. Meanwhile, the differences in their local devices
(system heterogeneity), the continuous influx of online data (incremental
data), and labeled data scarcity may further influence the performance of these
methods. To solve this problem, federated transfer learning (FTL), which
integrates transfer learning (TL) into FL, has attracted the attention of
numerous researchers. However, since FL enables a continuous share of knowledge
among participants with each communication round while not allowing local data
to be accessed by other participants, FTL faces many unique challenges that are
not present in TL. In this survey, we focus on categorizing and reviewing the
current progress on federated transfer learning, and outlining corresponding
solutions and applications. Furthermore, the common setting of FTL scenarios,
available datasets, and significant related research are summarized in this
survey.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、データ共有の必要をなくすことで、参加者がプライバシー保護を伴う集中型モデルを協調的にトレーニングすることを可能にする、新しい分散機械学習パラダイムである。
実際には、FLは複数の参加者を巻き込み、対象者の更新を導くために、第三者がグローバル情報を集約する必要がある。
したがって、各参加者のトレーニングやテストデータのために多くのFLメソッドがうまく動作しないため、同じ特徴空間と基礎となる分布からサンプルを採取することはできない。
一方、ローカルデバイスの違い(システム不均一性)、オンラインデータの継続的な流入(インクリメンタルデータ)、ラベル付きデータの不足は、これらの手法の性能にさらに影響を及ぼす可能性がある。
この問題を解決するために、転送学習(tl)をflに統合したフェデレート転送学習(ftl)が多くの研究者の注目を集めている。
しかし、flは各通信ラウンドの参加者間の継続的な知識共有を可能にし、他の参加者によるローカルデータへのアクセスを許可していないため、tlにはない多くのユニークな課題に直面している。
本研究では,フェデレーション・トランスファー・ラーニングの現在の進展を分類・レビューし,対応するソリューションとアプリケーションを概説する。
さらに、FTLシナリオの共通設定、利用可能なデータセット、および重要な関連研究について、本調査で要約する。
関連論文リスト
- Federated Large Language Models: Current Progress and Future Directions [63.68614548512534]
本稿では,LLM(FedLLM)のフェデレーション学習について調査し,最近の進歩と今後の方向性を明らかにする。
ファインチューニングと迅速な学習という2つの重要な側面に注目し、既存の作業と関連する研究課題について議論する。
論文 参考訳(メタデータ) (2024-09-24T04:14:33Z) - FedAuxHMTL: Federated Auxiliary Hard-Parameter Sharing Multi-Task Learning for Network Edge Traffic Classification [9.816810723612653]
本稿では,FedAuxHMTLという,多タスク学習のための補助的ハードパラメータ共有フレームワークを提案する。
エッジサーバとベースステーション間のモデルパラメータ交換を取り入れ、分散領域のベースステーションがFedAuxHMTLプロセスに参加することを可能にする。
実験により,FedAuxHMTLの有効性を,精度,全地球的損失,通信コスト,計算時間,エネルギー消費の観点から検証し,実証した。
論文 参考訳(メタデータ) (2024-04-11T16:23:28Z) - A review on different techniques used to combat the non-IID and
heterogeneous nature of data in FL [0.0]
Federated Learning(FL)は、複数のエッジデバイス間で協調的なモデルトレーニングを可能にする機械学習アプローチである。
FLの重要性は、医療や金融などの業界で特に顕著であり、データのプライバシが最重要視されている。
この報告は、非IIDおよび異種データから生じる問題を掘り下げ、これらの課題に対処するために設計された現在のアルゴリズムを探求する。
論文 参考訳(メタデータ) (2024-01-01T16:34:00Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Privacy-Preserving Self-Taught Federated Learning for Heterogeneous Data [6.545317180430584]
フェデレーテッド・ラーニング(FL)は、各パーティのローカルデータを用いて、データを他人に公開することなく、ディープラーニングモデルのジョイントトレーニングを可能にするために提案された。
本研究では,前述の問題に対処するために,自己学習型フェデレーション学習と呼ばれるFL手法を提案する。
この方法では、潜在変数だけがモデルトレーニングのために他の当事者に送信され、プライバシはアクティベーション、重み、バイアスのデータとパラメータをローカルに保存することで保持される。
論文 参考訳(メタデータ) (2021-02-11T08:07:51Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - Mitigating Bias in Federated Learning [9.295028968787351]
本稿では,フェデレートラーニング(FL)におけるバイアスの原因について議論する。
データプライバシを損なうことなく、バイアスを軽減するために、前処理と内処理の3つの方法を提案する。
我々は、モデル性能、公平度メトリクス、バイアス学習パターンに対する影響を分析するために、複数のデータ分布に対して実験を行う。
論文 参考訳(メタデータ) (2020-12-04T08:04:12Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Semi-Federated Learning [4.897245729430157]
フェデレートラーニング(FL)は、大規模な分散情報通信技術(ICT)デバイスが、参加者が自身のデータを中央サーバに公開することなく、グローバルコンセンサスモデルを学習できるようにする。
本稿では,ローカルクライアントクラスタリングとクラスタ内トレーニングという2つの面でFLとは異なるセミフェデレートラーニング(セミFL)を提案する。
提案するSemi-FLは、将来のモバイル通信ネットワークに容易に適用でき、アップリンク伝送帯域を少なくすることができる。
論文 参考訳(メタデータ) (2020-03-28T14:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。