論文の概要: SLPerf: a Unified Framework for Benchmarking Split Learning
- arxiv url: http://arxiv.org/abs/2304.01502v2
- Date: Thu, 6 Jul 2023 17:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 17:39:30.853652
- Title: SLPerf: a Unified Framework for Benchmarking Split Learning
- Title(参考訳): SLPerf: 分散学習のベンチマークのための統一フレームワーク
- Authors: Tianchen Zhou, Zhanyi Hu, Bingzhe Wu, Cen Chen
- Abstract要約: 分割学習のための統一的な研究フレームワークとオープンな研究ライブラリであるSLPerfを提案する。
IIDと非IIDデータ設定の両方で、広く使われている4つのデータセットについて広範な実験を行った。
コントリビューションには、最近提案されたSLパラダイムの包括的調査、さまざまな状況におけるSLパラダイムの詳細なベンチマーク比較、リッチエンジニアリング・テイクアウトメッセージなどが含まれています。
- 参考スコア(独自算出の注目度): 23.428182614777032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data privacy concerns has made centralized training of data, which is
scattered across silos, infeasible, leading to the need for collaborative
learning frameworks. To address that, two prominent frameworks emerged, i.e.,
federated learning (FL) and split learning (SL). While FL has established
various benchmark frameworks and research libraries,SL currently lacks a
unified library despite its diversity in terms of label sharing, model
aggregation, and cut layer choice. This lack of standardization makes comparing
SL paradigms difficult. To address this, we propose SLPerf, a unified research
framework and open research library for SL, and conduct extensive experiments
on four widely-used datasets under both IID and Non-IID data settings. Our
contributions include a comprehensive survey of recently proposed SL paradigms,
a detailed benchmark comparison of different SL paradigms in different
situations, and rich engineering take-away messages and research insights for
improving SL paradigms. SLPerf can facilitate SL algorithm development and fair
performance comparisons. The code is available at
https://github.com/Rainysponge/Split-learning-Attacks .
- Abstract(参考訳): データプライバシの懸念により、サイロに分散したデータの集中的なトレーニングが実現不可能となり、協調学習フレームワークの必要性が高まった。
これに対処するために、フェデレーション学習(fl)とスプリット学習(sl)という、2つの著名なフレームワークが登場した。
FLは様々なベンチマークフレームワークや研究ライブラリを確立しているが、SLは現在、ラベル共有、モデルアグリゲーション、カット層選択の点で多様性があるにもかかわらず、統一ライブラリを欠いている。
この標準化の欠如はSLパラダイムの比較を困難にしている。
そこで本研究では,SLのための統一的な研究フレームワークであるSLPerfを提案し,IIDおよび非IIDデータ設定下で広く使用されている4つのデータセットについて広範な実験を行った。
我々のコントリビューションには、最近提案されたSLパラダイムの包括的調査、さまざまな状況におけるSLパラダイムの詳細なベンチマーク比較、SLパラダイムを改善するためのリッチエンジニアリングのテイクアウトメッセージと研究の洞察が含まれている。
SLPerfはSLアルゴリズムの開発と公正な性能比較を容易にする。
コードはhttps://github.com/Rainysponge/Split-learning-Attacksで入手できる。
関連論文リスト
- On the Discriminability of Self-Supervised Representation Learning [38.598160031349686]
自己教師付き学習(SSL)は、最近、下流の視覚タスクで大きな成功を収めた。
特に複雑な下流タスクにおいて、SSLと教師あり学習(SL)の間には、注目すべきギャップがまだ残っている。
論文 参考訳(メタデータ) (2024-07-18T14:18:03Z) - Erasing the Bias: Fine-Tuning Foundation Models for Semi-Supervised Learning [4.137391543972184]
半教師付き学習(SSL)は目覚ましい進歩をみせており、多くの方法のバリエーションをもたらしている。
本稿では,FinSSLという新しいSSLアプローチを提案する。
我々は、FineSSLが複数のベンチマークデータセットにSSLの新たな状態を設定し、トレーニングコストを6倍以上削減し、さまざまな微調整と現代的なSSLアルゴリズムをシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-05-20T03:33:12Z) - Investigating the Learning Behaviour of In-context Learning: A
Comparison with Supervised Learning [67.25698169440818]
大規模言語モデル(LLM)は、文脈内学習(ICL)において顕著な能力を示している。
我々は、ICLと教師あり学習(SL)を通して、同じ実演例で同じLLMを訓練し、ラベル摂動下での性能を調査する。
まず、特に大規模言語モデルにおいて、ゴールドラベルがダウンストリーム・イン・コンテクストのパフォーマンスに大きな影響を与えることを発見した。
第2に、SLと比較すると、ICLはSLよりもラベル摂動に敏感で、モデルサイズが大きくなるにつれて徐々にSLに匹敵する性能が得られることが実証的に示される。
論文 参考訳(メタデータ) (2023-07-28T09:03:19Z) - Self-Supervised Learning for Time Series Analysis: Taxonomy, Progress, and Prospects [84.6945070729684]
自己教師付き学習(SSL)は、最近、様々な時系列タスクで印象的なパフォーマンスを達成した。
この記事では、時系列データに対する最先端のSSLメソッドについてレビューする。
論文 参考訳(メタデータ) (2023-06-16T18:23:10Z) - Convergence Analysis of Sequential Split Learning on Heterogeneous Data [6.937859054591121]
Split Learning(SL)とFederated Averaging(Fed)は、分散機械学習の2つの一般的なパラダイムである。
不均一なデータに基づいてSL/一般SL/非Avgの収束保証を導出する。
極めて不均一なデータに対して,反直観分析の結果を実証的に検証した。
論文 参考訳(メタデータ) (2023-02-03T10:04:44Z) - Semi-supervised Learning with Deterministic Labeling and Large Margin
Projection [25.398314796157933]
ラベル付きデータの集中度と多様性は、半教師付き学習(SSL)の性能に非常に影響を与える
本研究は,OCF構造に基づいて認識される最小の安定かつ最も分散したデータに対して,カーネル化された大規模マージン計量を学習することを目的とする。
OLFに基づくSSLモデルの精度と性能の安定性は, ベースライン法に比べて大幅に向上した。
論文 参考訳(メタデータ) (2022-08-17T04:09:35Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - SemiNLL: A Framework of Noisy-Label Learning by Semi-Supervised Learning [58.26384597768118]
SemiNLLはSS戦略とSSLモデルをエンドツーエンドで組み合わせた汎用フレームワークである。
我々のフレームワークは、様々なSS戦略やSSLバックボーンを吸収し、そのパワーを利用して有望なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-12-02T01:49:47Z) - SplitFed: When Federated Learning Meets Split Learning [16.212941272007285]
フェデレートラーニング(FL)とスプリットラーニング(SL)は2つの人気のある分散機械学習アプローチである。
本稿では,2つのアプローチを両立させるスプリットフッドラーニング(SFL)という新しいアプローチを提案する。
SFLは、SLと同等のテスト精度と通信効率を提供すると同時に、複数のクライアントに対するSLよりも、グローバルエポックあたりの計算時間を著しく削減する。
論文 参考訳(メタデータ) (2020-04-25T08:52:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。