論文の概要: Spatio-Temporal Split Learning
- arxiv url: http://arxiv.org/abs/2108.06309v1
- Date: Fri, 13 Aug 2021 16:32:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 14:04:42.676710
- Title: Spatio-Temporal Split Learning
- Title(参考訳): 時空間分割学習
- Authors: Joongheon Kim, Seunghoon Park, Soyi Jung, Seehwan Yoo
- Abstract要約: 本稿では、プライバシーの深いニューラルネットワーク計算を実現するために、複数のエンドシステムを備えた新しい分割学習フレームワークを提案する。
データプライバシを保ちながら,提案するフレームワークがほぼ最適であることを示す。
- 参考スコア(独自算出の注目度): 12.116218256506697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a novel split learning framework with multiple
end-systems in order to realize privacypreserving deep neural network
computation. In conventional split learning frameworks, deep neural network
computation is separated into multiple computing systems for hiding entire
network architectures. In our proposed framework, multiple computing
end-systems are sharing one centralized server in split learning computation,
where the multiple end-systems are with input and first hidden layers and the
centralized server is with the other hidden layers and output layer. This
framework, which is called as spatio-temporal split learning, is spatially
separated for gathering data from multiple end-systems and also temporally
separated due to the nature of split learning. Our performance evaluation
verifies that our proposed framework shows nearoptimal accuracy while
preserving data privacy.
- Abstract(参考訳): 本稿では,深層ニューラルネットワーク計算のプライバシー保護を実現するために,複数のエンドシステムを用いた分割学習フレームワークを提案する。
従来の分割学習フレームワークでは、ディープニューラルネットワーク計算は、ネットワークアーキテクチャ全体を隠蔽する複数のコンピュータシステムに分離される。
提案したフレームワークでは,複数のエンドシステムは1つの集中型サーバを分割学習計算で共有し,複数のエンドシステムは入力層,第1の隠蔽層,集中型サーバは他の隠蔽層,出力層と共有する。
この枠組みは時空間分割学習と呼ばれ、複数のエンドシステムからデータを集めるために空間的に分離され、また分割学習の性質により時間的に分離される。
性能評価により,提案手法がデータのプライバシーを保ちながら,ほぼ最適に近い精度を示すことを確認した。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Cooperative Learning for Cost-Adaptive Inference [3.301728339780329]
提案されたフレームワークは、特定のアーキテクチャに縛られないが、既存のモデル/アーキテクチャを組み込むことができる。
モデルのサイズが多様である間、フルネットワークに匹敵する精度を提供する。
論文 参考訳(メタデータ) (2023-12-13T21:42:27Z) - Split-Et-Impera: A Framework for the Design of Distributed Deep Learning
Applications [8.434224141580758]
Split-Et-Imperaは、ディープネットワークの解釈可能性の原則に基づいて、ニューラルネットワークのベストスプリットポイントのセットを決定する。
異なるニューラルネットワーク再構成の迅速な評価のための通信認識シミュレーションを実行する。
これは、アプリケーションのサービス要件の品質と、正確性とレイテンシ時間の観点からのパフォーマンスのベストマッチを示唆している。
論文 参考訳(メタデータ) (2023-03-22T13:00:00Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - I-SPLIT: Deep Network Interpretability for Split Computing [11.652957867167098]
この研究は、分割コンピューティングの分野、すなわち、ディープニューラルネットワークを分割して、その初期部分を組み込みデバイスに、残りをサーバーにホストする方法において、大きな一歩を踏み出している。
我々は、レイヤーのアーキテクチャが重要であるだけでなく、それに含まれるニューロンの重要性も示している。
論文 参考訳(メタデータ) (2022-09-23T14:26:56Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Online Sequential Extreme Learning Machines: Features Combined From
Hundreds of Midlayers [0.0]
本稿では階層型オンラインシーケンシャル学習アルゴリズム(H-OS-ELM)を提案する。
アルゴリズムは、一定のブロックサイズまたは異なるブロックサイズでチャンクごとにチャンクを学習することができる。
論文 参考訳(メタデータ) (2020-06-12T00:50:04Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。