論文の概要: Histopathological Image Classification and Vulnerability Analysis using
Federated Learning
- arxiv url: http://arxiv.org/abs/2310.07380v1
- Date: Wed, 11 Oct 2023 10:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 23:14:57.548391
- Title: Histopathological Image Classification and Vulnerability Analysis using
Federated Learning
- Title(参考訳): フェデレートラーニングを用いた病理画像分類と脆弱性解析
- Authors: Sankalp Vyas, Amar Nath Patra, Raj Mani Shukla
- Abstract要約: グローバルモデルがそのコピーをトレーニングしているすべてのクライアントに送信し、クライアントは更新(重み)を返送する。
データプライバシは、クライアントのデバイス上でローカルに実行されるため、トレーニング中に保護される。
しかし、グローバルモデルはデータ中毒攻撃の影響を受けやすい。
- 参考スコア(独自算出の注目度): 1.104960878651584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Healthcare is one of the foremost applications of machine learning (ML).
Traditionally, ML models are trained by central servers, which aggregate data
from various distributed devices to forecast the results for newly generated
data. This is a major concern as models can access sensitive user information,
which raises privacy concerns. A federated learning (FL) approach can help
address this issue: A global model sends its copy to all clients who train
these copies, and the clients send the updates (weights) back to it. Over time,
the global model improves and becomes more accurate. Data privacy is protected
during training, as it is conducted locally on the clients' devices.
However, the global model is susceptible to data poisoning. We develop a
privacy-preserving FL technique for a skin cancer dataset and show that the
model is prone to data poisoning attacks. Ten clients train the model, but one
of them intentionally introduces flipped labels as an attack. This reduces the
accuracy of the global model. As the percentage of label flipping increases,
there is a noticeable decrease in accuracy. We use a stochastic gradient
descent optimization algorithm to find the most optimal accuracy for the model.
Although FL can protect user privacy for healthcare diagnostics, it is also
vulnerable to data poisoning, which must be addressed.
- Abstract(参考訳): 医療は機械学習(ml)の最先端の応用の一つだ。
従来、MLモデルは中央サーバによってトレーニングされ、さまざまな分散デバイスからデータを集約して、新たに生成されたデータの結果を予測する。
これは、モデルが機密性の高いユーザー情報にアクセスでき、プライバシー上の懸念を引き起こすため、大きな懸念である。
グローバルモデルがコピーをトレーニングしているすべてのクライアントにコピーを送信すると、クライアントが更新(ウェイト)を返送します。
時間とともにグローバルモデルは改善され、より正確になる。
データプライバシは、クライアントのデバイス上でローカルに実行されるため、トレーニング中に保護される。
しかし、グローバルモデルはデータ中毒の影響を受けやすい。
皮膚がんデータセットのプライバシ保存FL技術を開発し、そのモデルがデータ中毒攻撃のリスクが高いことを示す。
10人のクライアントがモデルをトレーニングしますが、そのうちの1つは意図的にラベルをフリップして攻撃します。
これにより、グローバルモデルの精度が低下する。
ラベルのフリップの割合が増加するにつれて、精度が著しく低下する。
確率的勾配降下最適化アルゴリズムを用いて,モデルの最適精度を求める。
FLは、医療診断のためのユーザのプライバシを保護することができるが、対処しなければならないデータ中毒にも脆弱である。
関連論文リスト
- FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Federated Self-Supervised Contrastive Learning and Masked Autoencoder
for Dermatological Disease Diagnosis [15.20791611477636]
皮膚科疾患の診断において, 移動皮膚科補助医が収集した個人データは, 患者の移動体に分散して存在する。
本稿では,ラベルが限定された皮膚疾患診断のための2つの自己指導型学習フレームワークを提案する。
皮膚疾患データセットの実験は、最先端のフレームワークよりも提案したフレームワークの精度が優れていることを示している。
論文 参考訳(メタデータ) (2022-08-24T02:49:35Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - FedProf: Optimizing Federated Learning with Dynamic Data Profiling [9.74942069718191]
フェデレートラーニング(FL)は、分散データから学ぶためのプライバシ保護ソリューションとして大きな可能性を示している。
クライアントの大多数は、バイアス、ノイズ、あるいは無関係な低品質のデータのみを保有している。
本研究では,データプライバシを侵害することなくFLを最適化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-02T20:10:14Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。