論文の概要: MGIC: A Multi-Label Gradient Inversion Attack based on Canny Edge
Detection on Federated Learning
- arxiv url: http://arxiv.org/abs/2403.08284v1
- Date: Wed, 13 Mar 2024 06:34:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:16:00.684176
- Title: MGIC: A Multi-Label Gradient Inversion Attack based on Canny Edge
Detection on Federated Learning
- Title(参考訳): MGIC: Canny Edgeに基づくマルチラベルグラディエントインバージョンアタック
フェデレーション学習の検出
- Authors: Can Liu and Jin Wang
- Abstract要約: 本稿では,多ラベルデータセットと単一ラベルデータセットの両方において,キャニーエッジ検出(MGIC)に基づく新たな勾配インバージョン戦略を提案する。
提案手法は、最も広く使われているものよりも視覚的逆画像結果の方が優れており、ImageNetデータセットの78%以上の時間的コストを節約できる。
- 参考スコア(独自算出の注目度): 6.721419921063687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a new distributed computing framework that can protect data privacy,
federated learning (FL) has attracted more and more attention in recent years.
It receives gradients from users to train the global model and releases the
trained global model to working users. Nonetheless, the gradient inversion (GI)
attack reflects the risk of privacy leakage in federated learning. Attackers
only need to use gradients through hundreds of thousands of simple iterations
to obtain relatively accurate private data stored on users' local devices. For
this, some works propose simple but effective strategies to obtain user data
under a single-label dataset. However, these strategies induce a satisfactory
visual effect of the inversion image at the expense of higher time costs. Due
to the semantic limitation of a single label, the image obtained by gradient
inversion may have semantic errors. We present a novel gradient inversion
strategy based on canny edge detection (MGIC) in both the multi-label and
single-label datasets. To reduce semantic errors caused by a single label, we
add new convolution layers' blocks in the trained model to obtain the image's
multi-label. Through multi-label representation, serious semantic errors in
inversion images are reduced. Then, we analyze the impact of parameters on the
difficulty of input image reconstruction and discuss how image multi-subjects
affect the inversion performance. Our proposed strategy has better visual
inversion image results than the most widely used ones, saving more than 78% of
time costs in the ImageNet dataset.
- Abstract(参考訳): データプライバシを保護できる新しい分散コンピューティングフレームワークとして、フェデレートラーニング(FL)が近年ますます注目を集めている。
グローバルモデルをトレーニングし、トレーニングされたグローバルモデルをワーキングユーザへリリースする、というユーザからのグラデーションを受けています。
それでも、勾配反転(GI)攻撃は、連合学習におけるプライバシー漏洩のリスクを反映している。
攻撃者は、ユーザのローカルデバイスに格納された比較的正確なプライベートデータを取得するために、数十万の簡単なイテレーションを通じてグラデーションを使用する必要がある。
そのため、シングルラベルデータセットでユーザデータを取得するためのシンプルで効果的な戦略を提案する研究もある。
しかし,これらの戦略は,高コストを犠牲にして,インバージョン画像の良好な視覚効果をもたらす。
単一のラベルのセマンティック制限のため、勾配反転によって得られた画像はセマンティックエラーを持つ可能性がある。
本稿では,多ラベルデータセットと単一ラベルデータセットの両方において,キャニーエッジ検出(MGIC)に基づく新たな勾配インバージョン戦略を提案する。
単一ラベルによるセマンティックエラーを低減するため、トレーニングされたモデルに新しい畳み込み層のブロックを追加し、画像のマルチラベルを得る。
マルチラベル表現により、逆画像における真剣な意味的誤りが低減される。
そして、入力画像再構成の難しさに対するパラメータの影響を分析し、画像多目的が逆変換性能にどう影響するかを議論する。
提案手法は、最も広く使われているものよりも視覚的逆画像結果の方が優れており、ImageNetデータセットの78%以上の時間的コストを節約できる。
関連論文リスト
- Multimodal Unlearnable Examples: Protecting Data against Multimodal Contrastive Learning [53.766434746801366]
マルチモーダル・コントラッシブ・ラーニング (MCL) は、インターネットから何百万ものイメージ・キャプション・ペアから学習することで、ゼロショット分類において顕著な進歩を見せている。
ハッカーは、個人やプライバシーに敏感な情報を含む、モデルトレーニングのために画像テキストデータを不正に活用する可能性がある。
近年の研究では、保護のためのショートカットを構築するための訓練画像に知覚不能な摂動を加えることで、学習不可能な例を生成することを提案する。
マルチステップ誤り最小化(MEM)を提案する。
論文 参考訳(メタデータ) (2024-07-23T09:00:52Z) - GI-SMN: Gradient Inversion Attack against Federated Learning without Prior Knowledge [4.839514405631815]
フェデレートラーニング(FL)は、プライバシ保護機械学習アプローチとして登場した。
勾配反転攻撃はFLの勾配を利用して元のユーザデータを再現する。
スタイルマイグレーションネットワーク(GI-SMN)に基づく新しいグラディエント・インバージョン・アタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T14:29:24Z) - AFGI: Towards Accurate and Fast-convergent Gradient Inversion Attack in Federated Learning [13.104809524506132]
フェデレートラーニング(FL)は、ユーザのモデル勾配のみを公開することによって、モデルトレーニングにおけるプライバシ保護を強化する。
しかし,FL利用者は,地上訓練データを再構築できる勾配反転攻撃(GIA)の影響を受けやすい。
本稿では,AFGIと呼ばれる,高精度かつ高速な逆変換アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-13T09:48:04Z) - OsmLocator: locating overlapping scatter marks with a non-training
generative perspective [48.50108853199417]
重複するマークの配置には、テクスチャの欠如、文脈の少ない情報、ハロー形状、小さなサイズなど、多くの困難がある。
ここでは、クラスタリングに基づく再視覚化の最適化問題として、非学習的生成の観点から定式化する。
特に,異なるマーカーと様々な重なり合いの重なり合いを持つ何百もの散乱画像を含む2023というデータセットを構築し,提案手法を既存の手法と比較した。
論文 参考訳(メタデータ) (2023-12-18T12:39:48Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Enhancing Privacy against Inversion Attacks in Federated Learning by
using Mixing Gradients Strategies [0.31498833540989407]
フェデレーション学習は情報漏洩のリスクを低減するが、攻撃に対して脆弱である。
いくつかのニューラルネットワーク設計決定が、勾配逆攻撃に対してどのように防御できるかを示す。
これらの戦略は、画像認識のためのLeNETのような深層畳み込みニューラルネットワークにも有用である。
論文 参考訳(メタデータ) (2022-04-26T12:08:28Z) - Learning Self-Supervised Low-Rank Network for Single-Stage Weakly and
Semi-Supervised Semantic Segmentation [119.009033745244]
本稿では,単一段階弱教師付きセマンティックセマンティックセマンティックセマンティクス(WSSS)と半教師付きセマンティクスセマンティクスセマンティクス(SSSS)のための自己教師付き低ランクネットワーク(SLRNet)を提案する。
SLRNetは、画像の異なるビューから複数の注意深いLR表現を同時に予測し、正確な擬似ラベルを学習する。
Pascal VOC 2012、COCO、L2IDデータセットの実験では、SLRNetは最先端のWSSSメソッドとSSSSメソッドの両方で、さまざまな設定で優れています。
論文 参考訳(メタデータ) (2022-03-19T09:19:55Z) - Unpaired Image Captioning by Image-level Weakly-Supervised Visual
Concept Recognition [83.93422034664184]
未ペア画像キャプション(UIC)とは、訓練段階で画像キャプチャペアを使わずに画像を記述することである。
既存の研究の多くは、既成のアルゴリズムを使って視覚的概念を得る。
画像レベルラベルを用いたコスト効率の高いUICを実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T08:02:23Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Contrastive Learning for Label-Efficient Semantic Segmentation [44.10416030868873]
Convolutional Neural Network(CNN)ベースのセマンティックセグメンテーションアプローチは、大量のラベル付きデータを使用して印象的な結果を達成しました。
事実上のクロスエントロピー損失でトレーニングされたディープCNNは、少量のラベル付きデータに容易に適合する。
簡便で効果的な対比学習型トレーニング戦略を提案し、まずはピクセル単位のラベルベースの対比損失を用いてネットワークを前訓練します。
論文 参考訳(メタデータ) (2020-12-13T07:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。