論文の概要: Comparison of Privacy-Preserving Distributed Deep Learning Methods in
Healthcare
- arxiv url: http://arxiv.org/abs/2012.12591v1
- Date: Wed, 23 Dec 2020 10:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 01:51:06.392561
- Title: Comparison of Privacy-Preserving Distributed Deep Learning Methods in
Healthcare
- Title(参考訳): 医療におけるプライバシー保護型分散ディープラーニング手法の比較
- Authors: Manish Gawali, Arvind C S, Shriya Suryavanshi, Harshit Madaan, Ashrika
Gaikwad, Bhanu Prakash KN, Viraj Kulkarni, Aniruddha Pant
- Abstract要約: 本稿では,プライバシ保護型分散学習技術であるフェデレーション学習,分割学習,SplitFedを比較した。
これらの手法を用いて,胸部X線から結核を検出するバイナリ分類モデルを開発した。
実験ではスプリットラーニングやスプリットFedv2よりも優れたパフォーマンスを発揮する,新しい分散学習アーキテクチャであるSplitFedv3を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we compare three privacy-preserving distributed learning
techniques: federated learning, split learning, and SplitFed. We use these
techniques to develop binary classification models for detecting tuberculosis
from chest X-rays and compare them in terms of classification performance,
communication and computational costs, and training time. We propose a novel
distributed learning architecture called SplitFedv3, which performs better than
split learning and SplitFedv2 in our experiments. We also propose alternate
mini-batch training, a new training technique for split learning, that performs
better than alternate client training, where clients take turns to train a
model.
- Abstract(参考訳): 本稿では,プライバシ保護型分散学習技術であるフェデレーション学習,分割学習,SplitFedを比較した。
これらの手法を用いて胸部x線から結核を検出できる2値分類モデルを開発し,分類性能,通信コスト,計算コスト,訓練時間の観点から比較した。
本研究では,splitfedv3と呼ばれる分散学習アーキテクチャを提案する。
また,スプリット学習のための新たなトレーニング手法である代替ミニバッチトレーニングを提案する。
関連論文リスト
- Distribution Shift Matters for Knowledge Distillation with Webly
Collected Images [91.66661969598755]
異なる分布間の知識蒸留という新しい手法を提案する(KD$3$)。
まず,教師ネットワークと学生ネットワークの併用予測に基づいて,Webで収集したデータから有用なトレーニングインスタンスを動的に選択する。
また、MixDistributionと呼ばれる新しいコントラスト学習ブロックを構築して、新しい分散のインスタンスアライメントで摂動データを生成します。
論文 参考訳(メタデータ) (2023-07-21T10:08:58Z) - Privacy and Efficiency of Communications in Federated Split Learning [5.902531418542073]
我々は、両方の効率性とプライバシの利点を組み合わせた、新しいハイブリッドなFederated Split Learningアーキテクチャを提案する。
我々の評価は,分散学習システムを実行する各クライアントが必要とする処理パワーを,ハイブリッドなフェデレート・スプリット・ラーニング・アプローチがいかに削減できるかを示すものである。
また、ディープラーニングのプライバシ推論攻撃に対するアプローチのレジリエンスについても論じ、最近提案された他のベンチマークと比較した。
論文 参考訳(メタデータ) (2023-01-04T21:16:55Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - CXR-FL: Deep Learning-based Chest X-ray Image Analysis Using Federated
Learning [0.0]
本稿では,胸部X線画像解析のための深層学習モデルの評価を行う。
本研究は, 関心領域の訓練により, 肺のセグメンテーションに還元された場合には, 全体像と比較して, 分類モデルの性能が悪くなることを示す。
論文 参考訳(メタデータ) (2022-04-11T15:47:54Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Jigsaw Clustering for Unsupervised Visual Representation Learning [68.09280490213399]
本稿では,新しいjigsawクラスタリング・プレテキストタスクを提案する。
本手法は画像内情報と画像間情報の両方を利用する。
トレーニングバッチの半分しか使用されていない場合、コントラスト学習方法にも匹敵します。
論文 参考訳(メタデータ) (2021-04-01T08:09:26Z) - Vulnerability Due to Training Order in Split Learning [0.0]
分割学習では、no-peekアルゴリズムと呼ばれる追加のプライバシー保護アルゴリズムを組み込むことができ、敵対攻撃に対して堅牢である。
すべてのクライアントのデータを使ってトレーニングされたモデルは、モデルをトレーニングするためのラウンドの初期に考慮されたクライアントのデータではうまく動作しないことを示している。
また、SplitFedv3アルゴリズムは、分割学習によって得られるプライバシーの利点を引き続き活用しながら、この問題を軽減することを実証する。
論文 参考訳(メタデータ) (2021-03-26T06:30:54Z) - Interleaving Learning, with Application to Neural Architecture Search [12.317568257671427]
インターリーブ学習(IL)と呼ばれる新しい機械学習フレームワークを提案する。
私たちのフレームワークでは、一連のモデルが相互に連携してデータエンコーダを学習します。
CIFAR-10, CIFAR-100, ImageNetの画像分類にインターリービング学習を適用した。
論文 参考訳(メタデータ) (2021-03-12T00:54:22Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。