論文の概要: SplitNN-driven Vertical Partitioning
- arxiv url: http://arxiv.org/abs/2008.04137v1
- Date: Fri, 7 Aug 2020 17:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 00:44:30.329005
- Title: SplitNN-driven Vertical Partitioning
- Title(参考訳): splitnnによる垂直パーティショニング
- Authors: Iker Ceballos, Vivek Sharma, Eduardo Mugica, Abhishek Singh, Alberto
Roman, Praneeth Vepakomma, Ramesh Raskar
- Abstract要約: SplitNNと呼ばれる分散深層学習手法の構成である,垂直分散機能からの学習を容易にするSplitNN駆動の垂直分割を導入する。
提案された構成により、複雑な暗号化アルゴリズムやセキュアなプロトコルを必要とせずに、さまざまなデータソースを持つ機関間のトレーニングが可能になる。
- 参考スコア(独自算出の注目度): 12.567235252604355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we introduce SplitNN-driven Vertical Partitioning, a
configuration of a distributed deep learning method called SplitNN to
facilitate learning from vertically distributed features. SplitNN does not
share raw data or model details with collaborating institutions. The proposed
configuration allows training among institutions holding diverse sources of
data without the need of complex encryption algorithms or secure computation
protocols. We evaluate several configurations to merge the outputs of the split
models, and compare performance and resource efficiency. The method is flexible
and allows many different configurations to tackle the specific challenges
posed by vertically split datasets.
- Abstract(参考訳): 本研究では,SplitNNによる垂直分散特徴の学習を容易にするために,SplitNNと呼ばれる分散ディープラーニング手法の構成法であるVertical Partitioningを導入する。
SplitNNは、生のデータやモデルの詳細を協力機関と共有していない。
提案した構成により、複雑な暗号化アルゴリズムやセキュアな計算プロトコルを必要とせずに、さまざまなデータソースを持つ機関間のトレーニングが可能になる。
分割モデルの出力をマージするためにいくつかの構成を評価し、性能と資源効率を比較する。
このメソッドは柔軟で、多くの異なる構成で、垂直に分割されたデータセットによって生じる特定の課題に対処できる。
関連論文リスト
- ComboStoc: Combinatorial Stochasticity for Diffusion Generative Models [65.82630283336051]
拡散生成モデルの既存のトレーニングスキームにより,次元と属性の組み合わせによって区切られた空間が十分に標本化されていないことを示す。
構造を完全に活用するプロセスを構築し,ComboStocという名前でこの問題に対処する。
論文 参考訳(メタデータ) (2024-05-22T15:23:10Z) - Accelerating Split Federated Learning over Wireless Communication
Networks [17.97006656280742]
我々は、連立学習(FL)の並列モデル学習機構と分割学習(SL)のモデル分割構造を組み合わせた分割学習(SFL)フレームワークを検討する。
システム遅延を最小限に抑えるために,分割点選択と帯域割り当ての連立問題を定式化する。
実験の結果,レイテンシ低減と精度向上における作業の優位性を実証した。
論文 参考訳(メタデータ) (2023-10-24T07:49:56Z) - Automatic Discovery of Composite SPMD Partitioning Strategies in PartIR [1.2507285499419876]
本稿では,多くのモデルアーキテクチャとアクセラレータシステムのための効率的な組み合わせを同定する自動分割器を提案する。
我々の重要な発見は、Monte Carlo Tree Searchベースのパーティショナがパーティショニング固有のコンパイラ分析を直接利用し、ガイドされたゴールは、様々なモデルのエキスパートレベルの戦略と一致することである。
論文 参考訳(メタデータ) (2022-10-07T17:46:46Z) - Exploiting Temporal Structures of Cyclostationary Signals for
Data-Driven Single-Channel Source Separation [98.95383921866096]
単一チャネルソース分離(SCSS)の問題点について検討する。
我々は、様々なアプリケーション領域に特に適するサイクロ定常信号に焦点を当てる。
本稿では,最小MSE推定器と競合するU-Netアーキテクチャを用いたディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T14:04:56Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Structurally Diverse Sampling Reduces Spurious Correlations in Semantic
Parsing Datasets [51.095144091781734]
本稿では,構造化された出力を持つラベル付きインスタンスプールから,構造的に多様なインスタンス群をサンプリングする新しいアルゴリズムを提案する。
提案アルゴリズムは, 合成テンプレート分割だけでなく, 従来のID分割においても, 従来のアルゴリズムよりも競合的に動作することを示す。
一般に、多種多様な列車集合は、10組のデータセット分割ペアのうち9組で同じ大きさのランダムな訓練集合よりも優れた一般化をもたらす。
論文 参考訳(メタデータ) (2022-03-16T07:41:27Z) - DistIR: An Intermediate Representation and Simulator for Efficient
Neural Network Distribution [15.086401550425125]
DistIRは分散計算のための表現であり、効率的な解析のために調整されている。
本研究では、DistIRとそのシミュレータが1000以上の構成にまたがる複雑な分散空間を高速にグリッドで探索する方法を示す。
論文 参考訳(メタデータ) (2021-11-09T21:32:51Z) - Towards Federated Bayesian Network Structure Learning with Continuous
Optimization [14.779035801521717]
本稿では,ベイズネットワークの構造を推定するクロスサイロ・フェデレーション学習手法を提案する。
本研究では,連続最適化に基づく分散構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T14:36:05Z) - Heterogeneous Federated Learning [41.04946606973614]
フェデレーション学習は、ローカルノードから協調モデルを融合させることで、散在するデータから学習する。
カオス的な情報分布のため、モデル融合は未整合パラメータに関する構造的不整合に悩まされる可能性がある。
本稿では,協調モデル間の強固な構造情報アライメントを確立するための,新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-15T19:06:59Z) - Privacy-Preserving Asynchronous Federated Learning Algorithms for
Multi-Party Vertically Collaborative Learning [151.47900584193025]
本稿では,非同期フェデレーションSGD(AFSGD-VP)アルゴリズムとその垂直分割データ上でのSVRGおよびSAGA変種を提案する。
我々の知る限り、AFSGD-VPとそのSVRGおよびSAGAの変種は、垂直に分割されたデータのための最初の非同期フェデレーション学習アルゴリズムである。
論文 参考訳(メタデータ) (2020-08-14T08:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。